Mathématiques et scientisme
de Grothendieck à CRISPR-cas9
Nicolas Bouleau
[rédaction provisoire, novembre 2025, ne pas diffuser]
Introduction
La science, selon les recommandations de John Stuart Mill, doit accepter les controverses. Prendre en compte le « meilleur avocat du diable » fait partie de sa méthode. Mais s’agit-il en pratique de n’importe quelle critique ou uniquement de certaines d’entre elles seules susceptibles de faire avancer la connaissance ? Cette tolérance méthodologique peut-elle être vraiment complètement ouverte ? Permet-elle de s’affranchir de toute analyse critique globale ? Souvent l’épistémologue privilégie une discipline à partir de laquelle il considère les autres et cela peut lui masquer certaines questions. Par exemple l’étude historique et sociologique de la science nous montre à l’évidence des valeurs masculines. La connaissance est vue classiquement comme un défi lancé à la nature que Francis Bacon présentait comme une femme féconde. La science actuelle est encore très masculine, les statistiques de genre dans les universités du monde entier sont impressionnantes à cet égard. Cependant le sociologue Pierre Bourdieu dans son ouvrage La domination masculine (Seuil 1998)cite l’Église, l’École, et l’État comme lieux de cette domination mais, par un curieux oubli, ne songe pas à la science comme institution typique de cette dominance.
Pourtant une trentaine d’années auparavant le mathématicien Alexandre Grothendieck avait formulé une critique radicale et globale de la science « La nouvelle église universelle » en trois volets. D’abord qu’elle était conduite, orientée, par des super-spécialistes et coupée des vrais problèmes des gens. Ensuite qu’elle se trouvait mêlée à l’industrie de l’armement. Et enfin qu’elle prétendait détenir seule la vérité sur le monde sur la base de dogmes qu’il fallait vénérer. Grothendieck va jusqu’à remettre en cause le progrès de la civilisation par la science selon la fresque édifiante de Francis Bacon : devant un auditoire de physiciens des particules il pose la question « Allons-nous continuer la recherche ? »
Il imagine donc que l’intelligence peut se développer autrement qu’en perfectionnant la technique, que la culture peut s’animer d’une autre créativité. Un demi-siècle s’est écoulé et l’actualité semble ne pas l’avoir écouté.
Nous allons tenter d’éclaircir cette problématique en la rapprochant des questions contemporaines.
Nous débuterons l’analyse par une évocation du groupe Survivre, dénommé ensuite Survivre… et vivre, créé au début des années 1970 à l’initiative d’Alexandre Grothendieck, mathématicien brillant et atypique, avec quelques autres collègues mathématiciens. Ce mouvement, qui s’exprime par des conférences et par des textes sans concession dans une revue artisanale, est le cadre d’une critique radicale du progrès technique et de l’industrie de l’armement. C’est la première mise en accusation méthodique de la science et de son idéologie le scientisme.
Peu après Mai 68, l’engagement vigoureux de ces chercheurs sur la scène politique est assez curieux car les mathématiques ne leur donnent a priori aucune légitimité pour prendre la parole dans les débats, souvent enflammés, des partis politiques et des syndicats. J’émets l’hypothèse – qui est au cœur de cet essai – que justement les découvertes des années 1930 concernant les fondements des mathématiques sont porteuses d’une vision nouvelle de la connaissance qui leur donnait le recul nécessaire pour échapper au matérialisme du marxisme-léninisme omniprésent.[1]
Le chapitre 2 explicite cette nouvelle vision de la science dont les conséquences contemporaines sont explorées au chapitre 3 en ce qui concerne la biologie moléculaire et la question des Nouvelles Techniques Génomiques, puis au chapitre 4 sous l’angle des dangers futurs liés au développement de la technique. La trilogie savoir-progrès-profit est abordée économiquement par le rôle fondamental des marchés financiers à terme pour les décisions concernant l’avenir, institutionnellement par l’extension du concept d’opportunisme, et enfin psychologiquement en évoquant une nouvelle forme d’eugénisme liée au décryptage génétique.
La conclusion synthétise les point
majeurs de cette discussion sur le scientisme par une idée qui risque d’avoir
une place centrale dans les décennies à venir : les mathématiques se trouvent appelées
à jouer un rôle épistémologique différent, une discipline servante en un
sens nouveau, qui développe et engrange les connaissances sur la phénoménologie
de la combinatoire et sur les limites de la science.
1. Un chercheur surdoué
Sitôt que l’on pénètre la vie, l’œuvre scientifique, ou les écrits littéraires d’Alexandre Grothendieck, on ressent une impression d’intensité. Tout ce qu’il a vécu, ce qu’il a fait, ce qu’il a dit et rédigé est grave, important. Grothendieck n’est pas simplement un mathématicien qui s’est tourné vers l’écologie, il est un personnage intense qui par sa dynamique, ses luttes, sa ferveur, nous entraîne, on ne sait pas exactement où.
Il ne le dit pas. Il ne propose pas une philosophie, un système. Il nous laisse comme dans un drame antique dont il serait le chœur.
Une comparaison avec le cas de René Thom peut être éclairante. Ils ont plusieurs points communs. Thom est titulaire de la médaille Fields huit ans avant Grothendieck, qui le rejoindra à l’IHES (Institut des hautes études scientifiques) de 1966 à 1970 ; ce sont donc deux mathématiciens exceptionnels dans des branches voisines. Pourtant, René Thom apparaît comme un intellectuel « classique », tel que la France peut s’enorgueillir d’en avoir eu un certain nombre. Très cultivé, il mène avec finesse le projet de fonder sur ses découvertes mathématiques une nouvelle voie pour la biologie, en constituant un langage des changements de formes.
Grothendieck, quant à lui, ne propose pas de méthode. Il regarde l’avenir de l’humanité mais ne prétend pas en détenir la clef. Il pose un regard lucide, s’engage courageusement, puis se met en retrait. Il est utile de rappeler qu’Alexandre Grothendieck, pour tout un faisceau de raisons, est certainement le mathématicien le plus célèbre du 20ème siècle. Son œuvre mathématique, considérable, a forgé un grand nombre de notions nouvelles qu’aujourd’hui les chercheurs approfondissent. Et en plus de ses écrits mathématiques, politiques et littéraires, il a laissé à sa mort des milliers de pages qui n’ont pas encore été complètement dépouillées. Ses travaux ont suscité une vaste littérature internationale de commentaires, essais ou actes de séminaires sur sa vie, sa personnalité, sur les thèmes politiques, philosophiques et écologiques au sujet desquels il a fait des choix originaux et souvent courageux.
Alexandre Grothendieck a pris une position que personne n’avait osée si clairement avant lui et en a donné l’exemple par sa vie même : la critique de la science en tant que telle.
– – –
Dans le manuscrit La clef des songes non publié de son vivant, Alexandre Grothendieck décrit son enfance.
J’ai vécu les cinq premières années de ma vie auprès de mes parents et en compagnie de ma sœur, à Berlin. Mes parents étaient athées. Pour eux les religions étaient des survivances archaïques, et les Églises et autres institutions religieuses des instruments d’exploitation et de domination des hommes.
Son père (Alexander Shapiro) était issu d’une famille juive pieuse, dans une petite ville d’Ukraine. En 1904 il rejoignit un des groupes anarchistes qui sillonnaient le pays, en prêchant le partage des terres et la liberté des hommes. Arrêté il reste en prison pendant onze ans, de seize à vingt-sept ans, avec des épisodes mouvementés d’évasions, de grèves de la faim… Il est libéré par la révolution en 1917. Mais à la tête d’un groupe autonome de combattants anarchistes, il est condamné à mort par les bolcheviks. Il quitte le pays clandestinement en 1921, et se fixe d’abord à Paris.
En 1924, à l’occasion d’un voyage à Berlin, il fait la connaissance de celle qui devait devenir ma mère. Coup de foudre de part et d’autre – ils restèrent indissolublement attachés l’un à l’autre, pour le meilleur et surtout pour le pire, vivant en union libre jusqu’à la mort de mon père en 1942 (en déportation à Auschwitz). Je suis le seul enfant issu de cette union.
Alexandre est né en 1928. Il décrit sa mère dotée d’une forte personnalité comme son père. Et, détail qui n’est pas sans importance pour son parcours de vie par la suite, il écrit
Aussi bien ma mère que mon père avaient des dons littéraires remarquables. Chez mon père, il y avait même là une vocation impérieuse, qu’il sentait inséparable de sa vocation révolutionnaire […] Mais ils ont choisi de se neutraliser mutuellement dans un affrontement passionné sans fin…
Après l’avènement d’Hitler en 1933, ses parents émigrent en France, et il les rejoint à Paris en mai 1939.
Nous sommes internés en tant qu’étrangers “indésirables”, mon père dès l’hiver 1939, ma mère avec moi aux débuts 1940. Je reste deux ans au camp de concentration, puis suis accueilli en 1942 par une maison d’enfants du “Secours Suisse” au Chambon-sur-Lignon, en pays cévenol protestant (où se cachent beaucoup de juifs, guettés comme nous par la déportation). La même année, mon père est déporté du camp du Vernet, pour une destination inconnue. C’est des années plus tard que ma mère et moi aurons notification officielle de sa mort à Auschwitz. Ma mère reste au camp jusqu’en janvier 1944. Elle mourra en décembre 1957, des suites d’une tuberculose pulmonaire contractée au camp.
Alexandre Grothendieck qui porte donc le nom de sa mère, une fois arrivé en France va au lycée, passe le baccalauréat puis étudie les mathématiques à l’université de Montpellier. En 1948 il décide de poursuivre ses études à Paris muni d’une lettre de recommandation pour Henri Cartan. Celui-ci lui suggère de rencontrer Laurent Schwartz et Jean Dieudonné à Nancy. Après l’anecdote célèbre de l’évaluation de ses talents par ces deux grands professeurs – qui est contée par Pierre Cartier
Je donne ci-dessous un aperçu très partiel de son œuvre mathématique qui est à la fois difficile et très abondante. Il s’y consacrera de façon intense de 1950 à 1970.
Mais il abandonne – et définitivement – les mathématiques en 1970. C’est ce qu’il appelle lui-même « le grand tournant ». Ses motifs sont que l’écologie, la préservation de l’avenir de l’humanité et du vivant, sont à ses yeux le plus important, et ce pour quoi il vaut la peine de lutter.
Le grand tournant a été jalonné de plusieurs événements qui ont contribué à cette décision irrévocable. D’abord une mésentente avec André Weil sur le cadre à adopter pour la suite du traité rédigé par le groupe Bourbaki,[4] ensuite le fait que l’IHES (Institut des hautes études scientifiques qui s’installera à Bures sur Yvette) soit cofinancé par des crédits militaires ce qu’il considérait inadmissible, et aussi une dispute avec les professeurs du Collège de France où il avait obtenu un poste de professeur associé à propos de sa volonté d’y consacrer une part de son enseignement à l’écologie.
Les années de militantisme intense qui suivirent 1970 où il révèle un talent de polémiste exceptionnel dans la revue Survivre qu’il fonde avec quelques collègues, sont une source de textes de très haute valeur politique, morale et intellectuelle pour qui a pris conscience du problème du progrès et des limites de la planète.
Mais après quelques années le grand tournant est suivi par un « grand retrait ». Grothendieck se retire dans le Midi de la France, poursuit des travaux mathématiques hors de tout cadre institutionnel, enseigne à l’université de Montpellier, et se consacre à la méditation et à la littérature.
– – –
Ainsi, en 1970, après 25 ans consacrés aux mathématiques, Alexandre Grothendieck quitte cette communauté, pour ne plus y revenir.
cet événement, écrit-il, a été vécu d’abord comme un douloureux arrachement, avant d’être ressenti comme une libération – comme le franchissement d’une porte que j’avais maintenue fermée sur moi très longtemps et qui s’était ouverte soudain sur un monde nouveau, insoupçonné.[5]
Une telle rupture au sommet de son talent et de la reconnaissance est rare dans le monde scientifique. Il fonde cette année-là avec Claude Chevalley et Pierre Samuel et le soutien d’autres scientifiques, le groupe Survivre qui deviendra Survivre… et vivre dont la revue publiera jusqu’en 1974 une vingtaine de numéros aux articles très engagés. Le but du mouvement y est ainsi présenté :
L’humanité ne survivra pas d’ici quelques décades si elle ne sait préserver ses ressources naturelles et contrôler la pollution industrielle (en reconvertissant de nombreuses industries, en traitant les déchets industriels pour en récupérer une partie importante pour des usages constructifs, et rendre le reste inoffensif pour notre environnement) ;
L’humanité ne survivra pas si elle n’arrive pas à supprimer les guerres, en éliminant les armées qui en sont les instruments ;
L’humanité ne survivra pas si elle n’arrive à éliminer les différentes formes de l’exploitation économique, cause des tensions extrêmes entre classes et entre nations ;
L’humanité ne survivra pas si elle n’arrive à contrôler la croissance de sa population ;
L’humanité ne pourra remplir les tâches précédentes, et elle ne survivra pas, si elle n’arrive à donner à chacun une éducation qui lui permette de renoncer aux besoins artificiels créés par la société de consommation, et de “sublimer” son agressivité ancestrale et son instinct de procréation illimitée dans une vie personnelle et sociale véritablement créatrice.
Tous ces problèmes sont des constituants inextricablement mêlés de celui de notre survie.[6]
En janvier de l’année suivante la revue demande à Grothendieck d’expliquer son engagement. Celui-ci débute l’article « Pourquoi je suis devenu militant » par cette phrase clef :
Il est assez peu courant que des scientifiques se posent la question du rôle de leur science dans la société.[7]
Cette phrase ouvre en effet un champ de réflexion que le groupe approfondira durant les quelques années de son existence, mais qui marque le début d’une ère nouvelle dans laquelle nous sommes maintenant où les principes les plus habituels de l’activité scientifique sont à remettre en cause devant les risques futurs. Il poursuit
J’ai même l’impression très nette que plus ils sont haut situés dans la hiérarchie sociale, et plus par conséquent ils se sont identifiés à l’establishment, ou du moins contents de leur sort, moins ils ont tendance à remettre en question cette religion qui nous a été inculquée dès les bancs de l’école primaire : toute connaissance scientifique est bonne, quel que soit son contexte ; tout progrès technique est bon. Et comme corollaire : la recherche scientifique est toujours bonne. Aussi les scientifiques, y compris les plus prestigieux, ont-ils généralement une connaissance de leur science exclusivement « de l’intérieur », plus éventuellement une connaissance de certains rapports administratifs de leur science avec le reste du monde. Se poser une question comme : « La science actuelle en général, ou mes recherches en particulier, sont-elles utiles, neutres ou nuisibles à l’ensemble des hommes ? » – cela n’arrive pratiquement jamais, la réponse étant considérée comme évidente, par les habitudes de pensée enracinées depuis l’enfance et léguées depuis des siècles.
Un an plus tard, le 27 janvier 1972, Alexandre Grothendieck accepte une conférence-débat organisée par le CERN (Centre européen de recherche nucléaire) et, devant cet auditoire de scientifiques, prend pour titre de son exposé celui d’un de ses articles paru dans la revue : « Allons-nous continuer la recherche scientifique ? » [8] Une véritable provocation.
Devant ces chercheurs, la plupart physiciens expérimentateurs, il déclare : « Je pense que la complexité des problèmes planétaires est si grande qu’elle défie absolument les capacités d’analyse mathématique ou expérimentale. Nous sommes dans une situation où les méthodes des sciences expérimentales ne nous servent pratiquement à rien. » [9] Il défend l’amélioration des rapports humains : » Parmi les transformations à effectuer, il y a plus particulièrement : le dépassement de l’attitude de compétitivité entre personnes. » Face à un auditoire visiblement réticent, il insiste justement sur une orientation anti positiviste : » On peut se demander, à première vue, en quoi ce type de changement est-il lié, disons, aux problèmes globaux de la survie. J’en suis convaincu, mais je ne peux pas le prouver parce que rien d’important ne peut être prouvé ; on peut simplement le ressentir, le deviner. » Devant les maîtres des accélérateurs et des chambres à bulles, il explique :
Je suis tout à fait convaincu que les recherches actuelles où l’on se met à cataloguer des particules élémentaires correspondant à tels ou tels opérateurs dans l’espace de Hilbert, ou les recherches mathématiques dans lesquelles j’ai été impliqué jusqu’à maintenant vont dépérir, non pas par un décret autoritaire de moi ou de personne d’autre, mais spontanément. Et ce lorsque les structures actuelles de la société vont s’écrouler, lorsque les rouages ne marcheront plus.
Autrement dit la décroissance se trouvera de fait une nécessité. « Elle [la recherche] cessera simplement, comme quelque chose qui, d’après un consensus général, sera devenu entièrement inintéressant. On n’aura plus envie, simplement, j’en suis persuadé, d’en faire. »
Ce tournant reste néanmoins une énigme pour les scientifiques qui se consacrent simplement à faire « bien leur travail ». Winfried Scharlau, biographe de Grothendieck, conteste que la dispute à l’IHES ait eu un rôle réel, il évoque des peines dans ses relations familiales, et semble se rallier à l’avis de Jean-Pierre Serre d’une énorme fatigue : « Après un effort surhumain, Grothendieck a dû admettre qu’il ne pourrait jamais achever l’œuvre qu’il avait commencée. » [10]
Conscient à l’évidence que son caractère entier lui valait des difficultés dans ses relations, Grothendieck déclare lui-même dans le débat qui suit son intervention au CERN qu’il attache une grande importance à approfondir la communication. La première marque de son intransigeance fut lors de sa démission du groupe Bourbaki en 1961. Il s’agissait d’une divergence d’appréciation sur la fécondité du langage des structures ou de celui des catégories où Grothendieck se trouvait opposé à André Weil partisan de raisonner d’abord sur la situation étudiée pour y découvrir des propriétés et d’abstraire ensuite plutôt que le contraire. La question de la généralisation est délicate en mathématique car si un système axiomatique a moins d’hypothèses il est plus général mais on peut y démontrer moins de résultats.
Comme Laurent Schwartz, son directeur de thèse, il avait de nombreuses relations mathématiques au niveau international, et en France bien sûr avec ses collègues et ses élèves. Il a lui-même réfléchi et écrit sur ses relations. Après sa démission de l’IHES en 1970 il reste accompagné par des amis mathématiciens qui participent avec lui au mouvement Survivre parmi lesquels Claude Chevalley, Pierre Samuel, Roger Godement, qui s’étaient montrés très engagés durant Mai 68.
Plusieurs contrariétés marquent cette période mouvementée. Au début de 1970, au Collège de France, où comme nous l’avons dit, il n’est pas nommé professeur,[11] candidat-professeur à l’université d’Orsay il n’est pas retenu, ni au CNRS. Ceci s’ajoute à la querelle au sein du groupe Bourbaki, et la divergence avec la direction de l’IHES qui le pousse à la démission.
La fascination admirative que Grothendieck exerce sur quiconque approfondit le personnage fait que certaines de ses originalités entrainent naturellement des comparaisons. C’est certainement le cas pour son texte La clef des songes dont le sous-titre est Dialogue avec le Bon Dieu. Quiconque a lu Freud pense immédiatement au cas du « Président Schreber » qui lui aussi s’entretient directement avec Dieu. Mais je suis frappé par un autre parallèle assez saisissant avec un autre génie des mathématiques tout à fait attachant dont la courte vie fut une succession incroyable de déboires.[12] Après son second échec à Polytechnique Évariste Galois est enfin reçu à l’École Normale, mais son esprit républicain intransigeant se braque contre la personnalité louvoyante du directeur de l’École. Il prend la tête d’un mouvement d’élèves demandant sa démission. Mais le résultat d’un questionnaire rempli par les élèves le désavoue et c’est lui qui est renvoyé de l’École. Il écrit à ses camarades dans une lettre ouverte que c’est par mensonge qu’on les a faits responsables de son éviction. Quelques jours après il ouvre un cours public d’algèbre dans le quartier ! L’École Normale n’est pas le Collège de France, mais quand on meurt à 20 ans et quelques mois tout se resserre.
– – –
La période mathématique de Grothendieck n’est pas notre sujet par lui-même. Mais étant moi-même mathématicien, je puis en dire quelques mots. Il se trouve que j’eus la chance d’avoir des échanges nombreux avec Laurent Schwartz qui dirigea ma thèse d’État, un patron très à l’écoute et motivant, ce qui me fait comprendre certaines préoccupations de Grothendieck, que par ailleurs je n’eus pas la chance de rencontrer. Je ne donne qu’un coup d’œil sur ses travaux mathématiques. De nombreux documents et témoignages existent pour approfondir si l’on souhaite, tant sur les contenus que sur le style de son travail.[13]
Les travaux mathématiques de Grothendieck peuvent être regroupés en deux ensembles chronologiquement. D’une part le domaine des produits tensoriels d’espaces fonctionnels qui fut le thème de sa thèse soutenue en 1953 et qu’il approfondit et généralisa ensuite.[14] D’autre part, de 1958 jusque vers 1970, l’élargissement des méthodes de géométrie algébrique qu’il poursuivit en liaison avec Jean Dieudonné. Cette seconde partie est très riche et très abstraite. Grothendieck partage lui-même son œuvre en douze idées maitresses dont les produits tensoriels ne forment que la première.[15] Je me limite à esquisser celle-ci.
Par rapport aux époques antérieures, le 20ème siècle est, en analyse, le siècle des espaces fonctionnels, c’est-à-dire des espaces dont les points représentent des fonctions : espaces de fonctions continues, espaces de fonctions dérivables, etc. Sur un tel espace il est possible de mettre de diverses façons une norme qui fournit la distance entre deux points (deux fonctions) de l’espace. Ceci permet de donner un sens à la convergence d’une suite de fonctions vers une fonction limite. Certains de ces espaces fonctionnels intéressent particulièrement les mathématiciens parce qu’ils ont une propriété que l’on peut qualifier de saturation : on peut dans ces espaces déterminer si une suite de fonctions est convergente sans avoir besoin de connaître sa limite. On les appelle les espaces de Banach du nom d’un mathématicien polonais qui les étudia systématiquement. Cela veut dire que ces espaces sont des cadres adéquates pour trouver la solution de problèmes par approximation. Au 20ème siècle on peut résoudre de nombreux problèmes de la physique sans connaître analytiquement l’expression de la fonction solution par une méthode d’approximation qui permet de la calculer point par point avec la précision que l’on veut.
Dès lors une question se pose très naturellement qui est de savoir si, partant d’un espace de Banach de fonctions d’une variable, et donc d’une méthode d’approximation pour des fonctions d’une variable, on peut en déduire une norme sur l’espace des fonctions de deux variables qui en fasse un nouvel espace de Banach. Parmi les fonctions de deux variables celles de la forme S fi(x)gi(y) sont les plus simples. Plusieurs normes sont envisageables sur ces fonctions qui, peut-être, pourront définir des espaces de Banach. C’est la notion de produit tensoriel d’espaces fonctionnels. Les diverses façons de procéder donnent des normes différentes souvent reliées par des inégalités. Ces inégalités ont été démontrées par Grothendieck sous des hypothèses générales dont on avait besoin pour la théorie des distributions que Laurent Schwartz avait développée.[16]
Sur la seconde partie de l’œuvre de Grothendieck les huit premiers chapitres du Cours de géométrie algébrique de Jean Dieudonné (PUF 1974) dressent un tableau historique depuis l’Antiquité jusqu’à nos jours, où les apports de Grothendieck sont situés. Les concepts qu’il a introduits – aux noms étranges de « topos », « foncteurs », « voisinages étales » et autres « feuilletages » – sont relatifs à la topologie, la géométrie algébrique et l’algèbre homologique. Il est vain de les expliquer en langage ordinaire. C’est une des parties les plus héroïques des mathématiques. En ce sens qu’elle s’applique à la théorie des nombres (science de la combinatoire, des nombres premiers etc.) comme la démonstration du grand théorème de Fermat l’a montré, mais elle procède souvent par des détours très abstraits. La théorie des nombres comporte beaucoup de structures cachées qui sont comme des trésors que révèlent parfois des excursions dans des domaines a priori éloignés dont les conséquences sont fructueuses. Il n’est pas interdit, par exemple, lorsqu’on ne sait pas résoudre une conjecture difficile comme l’hypothèse de Riemann, de la transposer dans un cadre différent qui présente des analogies mais où la nouvelle conjecture sera soluble soit par l’affirmative soit par la négative, fournissant un éclairage précieux sur le cas classique.
– – –
Le mouvement Survivre, qui devient ensuite Survivre… et vivre, fondé en 1970 par Grothendieck et quelques collègues français, américains et canadiens, dont nous avons plus haut mentionné les intentions, ne se considérait pas comme un groupe formel, une entité qui puisse signer en tant que telle des lettres ou des manifestes. Seule la revue en est l’expression commune. Aussi bien dans cette floraison d’idées, souvent acerbes et corrosives, parfois drôles, les textes rédigés par Grothendieck se présentent comme des synthèses sur des sujets graves.
Il aborde d’abord les relations entre la recherche scientifique et l’industrie militaire.[17] C’est un point de principe éthique qui était à l’origine de son départ de l’IHES et qui se concrétisera lors du montage d’un contre-colloque de logique pour s’opposer à celui cofinancé par l’OTAN à Cambridge en Angleterre. En août 1971 un colloque rival est organisé à Uldum, au Danemark. Le logicien Alan Slomson rapporte les discussions préalables à cette dissidence dans un article qui se termine par une citation de Bertrand Russell : « Il est en notre pouvoir de faire un monde bon ; et c’est pourquoi, quel que soit le travail et le danger qui nous attendent, nous devons le faire » (La Responsabilité sociale des savants). [18]
La position de Grothendieck est marquée comme le fut celle des philosophes Günther Anders[19] et Karl Jaspers[20] par l’horreur des bombes d’Hiroshima et de Nagasaki, et pointe l’inconscience des savants qui participèrent à cette application de la science. Comme Karl Jaspers, il analyse psychologiquement le cadre de pensée des savants focalisés sur la fécondité des idées et peu imaginatifs sur les conséquences morbides possibles.
Il se produit avec les applications techniques, et militaires en particulier, un phénomène proprement épistémologique qui pousse les savants à l’irresponsabilité. Les découvertes scientifiques, les nouveaux « effets », sont faites par l’investigation théorique et sont observées par les ingénieurs militaires qui y font leur marché a posteriori. De sorte que les chercheurs à l’origine des idées qui permettent les dispositifs innovants n’ont pas le sentiment d’être responsables du développement des armements nouveaux. Aujourd’hui ce phénomène s’est aggravé dans un domaine différent, celui de la biologie moléculaire, nous y reviendrons.
Le récit « Comment je suis devenu militant » est de janvier 1971. Au-delà des circonstances que Grothendieck expose, il s’agit d’une confession en forme d’acte-de-foi qui consiste à dire : je considère maintenant que l’œuvre mathématique à laquelle je me suis consacré durant 25 ans, jugée importante par la communauté mathématique, n’est pas centrale en comparaison du problème écologique de l’avenir de l’humanité.
Souvent les savants honorés par le prix Nobel ou la médaille Fields ont profité de cette notoriété pour s’exprimer, en livrant leur vision du monde, ou de leur discipline. Grothendieck accepta la médaille Fields mais versa son montant au Viêt-Nam du Nord [21].
La conférence « Allons-nous continuer la recherche scientifique ? » prononcée au CERN à Genève le 27 janvier 1972 est une véritable interpellation. Le texte est très riche et le débat qui suivit de très haut niveau. Le « nous » du titre est tout en finesse. N’oublions pas qu’Alexandre Grothendieck est un écrivain en herbe, il mettra à profit son talent plus tard. Ce « nous » signifie d’abord « moi », mais aussi les humains dans l’avenir de l’humanité, donc il veut dire également « vous », et en disant « nous » il se place en fraternité avec les maîtres des accélérateurs de particules et des chambres à bulles comme si sa prise de conscience pouvait être la prise de conscience naturelle de ces chercheurs en physique quantique.
Un échange de lettres avec le mathématicien Philippe Courrège est de cette période (février-mars 1972) [22]. C’est un témoignage extrêmement révélateur du courant scientiste qui existait à cette époque en écologie, dans l’esprit de Vladimir Vernadsky en Union Soviétique ou des modélisateurs comme les frères Odum en Occident. Dans la lettre de Courrège sont présents tous les ingrédients du scientisme : l’élitisme et l’ésotérisme des connaissances qui vont sauver le monde, le progrès technique illimité et le conformisme aux institutions. Grothendieck lui répond brièvement sans animosité.
Mentionnons encore en 1972 « Les pépins des noyaux » où par deux longs articles il s’emploie à vulgariser de façon rigoureuse les dangers de l’industrie nucléaire.
La revue Survivre… et vivre est aussi l’occasion pour d’autres intellectuels d’exprimer des vues novatrices sur les transformations que l’écologie impose à la société. C’est le cas en premier lieu de Pierre Samuel avec le bel article « Vues conservatrices sur la science » où celui-ci prend ses distances vis à vis d’une lecture radicalement anti-science qui serait faite de la critique de Grothendieck. Samuel entend bien clarifier que cela n’est en aucun cas un plaidoyer pour un éco-mysticisme à la manière de Louis Pauwels et la revue Planète. Il reprendra ce thème dans son livre Ecologie : détente ou cycle infernal.[23] Mentionnons aussi l’intéressante analyse du livre d’Ivan Illich Une société sans école faite par Claude Chevalley.
Le fonctionnement du mouvement Survivre… et vivre était trop ouvert, trop fluctuant, sans structure, les formulations importantes s’y trouvaient toujours mêlées aux sarcasmes. Cela ne pouvait durer. Dès l’année 1972, d’abord Pierre Samuel, puis Alexandre Grothendieck quittèrent le mouvement. Et la revue cessa ensuite après quelques numéros.
En 1973 il quitte définitivement les mathématiques en tant qu’institution internationale et accepte un poste à l’université de Montpellier. Il y donne des cours de licence, de maitrise et de DEA en initiation à la géométrie algébrique, et dirige des thèses. Il poursuit très librement des recherches personnelles comme en témoigne La longue marche à travers la théorie de Galois (1300 p.) et se consacre à l’écriture avec Récoltes et Semailles en 1983-86 (1500 p.) et La Clef des songes ou Dialogue avec le Bon Dieu (1987). [24]
– – –
Parmi les écrits de Grothendieck durant son engagement dans le mouvement Survivre… et vivre, le plus important est certainement « La nouvelle église universelle »[25]. Il y adopte, pour parler de la science, un point de vue différent du sillage philosophique généralement davantage tourné vers la critique de la technique. Il prend un recul historique et anthropologique pour voir le réseau de convictions que l’humanité a forgées pour fabriquer l’avenir, et dépeint la science comme une religion, encore plus dogmatique que les autres.
Ce texte est le plus construit des critiques rédigées par Grothendieck. Le tableau qu’il brosse de la science a beaucoup choqué, mais a remarquablement résisté à l’usure du temps.
Les philosophes qui ont abordé la science sous un angle critique ont le plus souvent montré qu’elle laissait de côté une terra incognita qui pouvait bien être la partie du monde la plus importante. C’est toute la spiritualité avec Pascal, le champ de la volonté chez Schopenhauer, et plus largement le domaine de la vie chez Bergson. Chez celui-ci comme chez Nietzsche, c’est la méthode scientifique elle-même qui entraîne cette limitation. Au 20ème siècle, le renouvellement de la physique par la relativité et la mécanique quantique, puis celui de la biologie par la découverte du génome, nourrissent les visions épistémologiques typiques de Karl Popper, Thomas Kuhn et Paul Feyerabend, notamment, pendant que la pensée critique se porte davantage sur la technique avec Martin Heidegger, Jacques Ellul, Günther Anders, Karl Jaspers, en écho de la prise de conscience écologique.
La critique menée par Alexandre Grothendieck est plus radicale et concerne la science elle-même, sous tous ses aspects : il s’agit d’une prise de recul considérable par rapport aux discours courants, la biosphère étant pensée dans son ensemble, et le processus historique des humains qui la transforment étant analysé comme une institution sociale qui se présente elle-même comme nécessaire, alors qu’elle pourrait être structurée et fonctionner complètement différemment. Aussi bien choisit-il pour la décrire le langage d’une religion instituée, comme aurait pu faire le sociologue Émile Durkheim, en dégageant des dogmes fondamentaux qu’il appelle des mythes, en désignant les lauréats reconnus dans la hiérarchie de la reconnaissance scientifique comme des prêtres et des grands prêtres, et le commun des mortels, incapables de comprendre les détails et contraints de se comporter comme s’ils croyaient au progrès, comme des fidèles.
Il est intéressant que le seul texte philosophique sur la science qui soit cité ici par Grothendieck pour représenter le scientisme qu’il critique soit l’ouvrage de Jacques Monod, Le Hasard et la Nécessité [26]. En effet, ce livre, traduit en une quinzaine de langues, est un manifeste habilement conçu pour offrir à la considération du progrès scientifique et technique une base argumentaire apparemment solide, qui montre encore aujourd’hui son efficacité doctrinale, cinquante ans plus tard. Dire que les êtres vivants résultent d’un tirage au hasard est une formulation délicate à réfuter parce que ce hasard vient combler une ignorance. Aussi les correctifs aux propos de Monod mirent un certain temps à être formulés (par Albert Jacquard [27], Georges Matheron [28], René Thom [29], etc.). Le rôle du contexte et des écosystèmes reste encore difficile à faire valoir aujourd’hui dans les plaidoiries autour de la règlementation des OGM.[30]
Cette subtilité du cadre dans lequel le calcul des probabilités doit ou ne doit pas s’appliquer ne pouvait pas échapper à un esprit fin et rigoureux comme Grothendieck. Pour brosser les choses à grands traits, on peut dire que le traité de Monod pose deux principes : il dit aux scientifiques : « La nature est au hasard, vous pouvez donc tout essayer », et il ajoute, dans son dernier chapitre, une recommandation morale pour l’ensemble de l’humanité : « Il faut faire confiance aux scientifiques. » Ce bouclage incite fortement à penser ce scientisme comme une religion telle qu’elle est décrite par Grothendieck.[31] Parcourons les traits les plus saillants de ce texte fameux.
Science et scientisme.
La méthode expérimentale et déductive, depuis quatre cents ans de succès spectaculaires, augmente sans cesse son impact sur la vie sociale et quotidienne, et par suite, jusqu’à une date récente, son prestige.
En même temps, à travers un processus « d’annexion impérialiste » qui devrait être analysé de façon plus serrée, la science a créé son idéologie propre, ayant plusieurs des caractéristiques d’une nouvelle religion, que nous pouvons appeler le scientisme.
Le scientisme s’est répandu par l’enseignement en présentant la science comme des vérités révélées. Le public ne comprend pas comment la science est faite.
Aussi le pouvoir du mot « science » sur l’esprit du grand public est-il d’essence quasi mystique et certainement irrationnelle. La science est, pour le grand public et même pour beaucoup de scientifiques, comme une magie noire, et son autorité est à la fois indiscutable et incompréhensible.
Le scientisme est la seule religion prétendant n’être fondée sur aucun mythe. Pour le grand public, les scientifiques, les technocrates et les experts sont ses grands prêtres.
L’immense majorité des scientifiques sont tout à fait prêts à accepter leur rôle de prêtres et de grands prêtres de la religion dominante d’aujourd’hui. Plus que n’importe qui, ils en sont imbus, et cela d’autant plus qu’ils sont plus haut situés dans la hiérarchie scientifique. Ils réagiront à toute attaque contre cette religion, ou l’un de ses dogmes, ou l’un de ses sous-produits, avec toute la violence émotionnelle d’une élite régnante aux privilèges menacés[32]. Ils font partie intégrante des pouvoirs en place quels qu’ils soient, auxquels ils s’identifient intimement et qui tous s’appuient fortement sur leurs compétences technologiques et technocratiques.
Il n’existe pas de dogme écrit explicite du scientisme auquel nous puissions nous référer[33]. Cependant, bien qu’il ne soit formulé explicitement, un tel dogme existe et il est tout à fait précis […]
Le credo du scientisme
Mythe 1 : Seule la connaissance scientifique est une connaissance véritable et réelle, c’est-à-dire, seul ce qui peut être exprimé quantitativement ou être formalisé, ou être répété à volonté sous des conditions de laboratoire, peut être le contenu d’une connaissance véritable. La connaissance « véritable » ou « réelle », parfois aussi appelée connaissance « objective », peut être définie comme une connaissance universelle, valable en tout temps, tout lieu, et pour tous, au-delà des sociétés et des formes de culture particulières.
L’amour, l’émotion, le beau ne font pas partie de la connaissance scientifique. En revanche la science prétend fonder la morale.
Mythe 2 : Tout ce qui peut être exprimé de façon cohérente en termes quantitatifs, ou peut être répété sous des conditions de laboratoire, est objet de connaissance scientifique et, par là même, valable et acceptable. En d’autres termes, la vérité (avec son contenu de valeur traditionnel) est identique à la connaissance, c’est-à-dire identique à la connaissance scientifique.
La guerre sous ses divers aspects est sujet d’étude scientifique, elle mobilise plusieurs disciplines et en tire respectabilité.
Mythe 3 : Conception « mécaniste », ou « formaliste », ou « analytique » de la nature : le rêve de la science. Atomes et molécules et leurs combinaisons peuvent être entièrement décrits selon les lois mathématiques de la physique des particules élémentaires ; la vie de la cellule en termes de molécules ; les organismes pluricellulaires en termes de populations cellulaires ; la pensée et l’esprit (comprenant toutes les sortes d’expérience psychique) en termes de circuits de neurones[34], les sociétés animales et humaines, les cultures humaines, en termes des individus qui les composent […]
À la limite, le monde n’est qu’une structure particulière au sein des mathématiques.
Grothendieck met l’accent sur le rôle de l’expert comme agent du scientisme, anticipant un thème majeur de la sociologie des sciences.
Mythe 4 : Le rôle de l’expert : la connaissance, tant par son développement que pour sa transmission par l’enseignement, doit être coupée en de nombreuses tranches ou spécialités : d’abord en larges champs tels que les mathématiques, la physique, la chimie, la biologie, la sociologie, la psychologie, etc., qui sont encore subdivisés ad libitum, à mesure que la science avance. Pour n’importe quelle question appartenant à un domaine donné, seule l’opinion des experts de ce domaine particulier est pertinente ; si plusieurs domaines sont concernés, seule l’opinion collective des experts de tous ces domaines l’est.
Le pouvoir de l’expert est fondé sur l’ésotérisme. L’étroitesse de son domaine disqualifie les autres approches.
Mythe 5 : La science et la technologie issue de la science peuvent résoudre les problèmes de l’homme, et elles seules. Ceci s’applique également aux problèmes humains, notamment aux problèmes psychologiques, moraux, sociaux et politiques.
Mythe 6 : Seuls les experts sont qualifiés pour prendre part aux décisions, car seuls les experts « savent ».
Combattre le scientisme
En eux-mêmes, au niveau purement intellectuel, ces mythes principaux du scientisme exercent un certain attrait puissant, qui explique en partie leur extraordinaire succès. Ils introduisent des simplifications énormes dans la complexité fluctuante des phénomènes naturels et de l’expérience humaine.
Les mythes du scientisme contiennent une part de vérité qui a été mise en avant pour faire progresser le royaume de la raison, mais au détriment du sensuel, de l’émotionnel et de l’éthique.
Nous tenons tous ces mythes principaux du scientisme pour des erreurs. Sur l’expert, qui se sent parmi les principaux bénéficiaires de ces mythes destinés à affermir son pouvoir collectif, ils ont un effet estropiant, à la fois spirituellement et intellectuellement, l’éloignant toujours plus du concert des êtres vivants, pour l’apparenter à un simple mécanisme cérébral cybernétisé toujours plus spécialisé.
La force de ces mythes inculqués au public qui ne peut les analyser, est paralysante. Le scientisme contribue à figer la société dans sa hiérarchie et la ferme à d’autres façon de penser et de vivre. Grothendieck prend parti contre la croissance de la production, course insensée qui mène à la crise écologique actuelle.
Pour toutes ces raisons, nous tenons que l’idéologie la plus dangereuse et la plus puissante aujourd’hui est le scientisme, bien qu’elle n’ait généralement pas été reconnue comme une puissante idéologie par elle-même. Elle peut être considérée comme un solide fond commun à l’idéologie capitaliste et à l’idéologie communiste sous la forme en vigueur dans la plupart des pays dits socialistes. Nous pensons que de plus en plus la principale ligne de partage politique se trouvera moins dans la distinction traditionnelle entre la « gauche » et la « droite », que dans l’opposition entre les scientistes, tenants du « progrès technologique à tout prix », et leurs adversaires, i.e., grosso modo, ceux pour lesquels l’épanouissement de la Vie, dans toute sa richesse et sa variété, et non le progrès technique, a priorité absolue.
Deux ans après les premiers pas sur la Lune – qui relève selon Grothendieck d’une véritable hystérie collective – il ne croit pas que la technologie fera demain le bonheur de l’homme. Mais, pour être constructif, il explique que l’on peut déceler le commencement du déclin du scientisme et réfléchit sur les moyens d’ouvrir d’autres voies pour l’avenir.
Un combat de l’intérieur
Une des voies les plus efficaces pour combattre le scientisme semblerait un combat de l’intérieur, par les scientifiques devenus conscients de ses erreurs et de ses dangers. Ce combat a déjà commencé depuis quelques années, et des horizons les plus variés. Cette opposition (quoique mitigée souvent) vient en partie de certains scientifiques gauchisants.
Grothendieck cite finalement plusieurs mouvements de jeunes scientifiques qui s’activent pour rendre possibles d’autres façons de vivre et conclut sa fresque par des notes optimistes.
Dans les prochains chapitres nous
allons replacer les critiques faites par Grothendieck dans son entourage
intellectuel de mathématiciens-logiciens et situer le mouvement Survivre…
et vivre dans son époque afin de mieux caractériser ce groupe dans sa
particularité historique et dégager sur quels fondements s’appuie sa
radicalité.
2. Une nouvelle vision de la science
Les critiques, regroupées par Grothendieck sous la bannière de La nouvelle église universelle, et élargies par les autres membres du groupe dans les articles de la revue Survivre… et vivre, portent essentiellement sur l’institution scientifique, l’armement, le nucléaire, et sur la recherche de pointe.[35]
La science, incompréhensible par le peuple, lui impose le respect par autorité, construisant une idéologie inculquée dès l’enfance : le scientisme. Des croyances irrévocables sont entretenues : la science fournit des connaissances quantitatives, objectives ; elle dit la vérité ; la nature procède de façon mécanique, selon des représentations formelles et analytiques ; il faut faire confiance aux experts qui sont les seuls à savoir.
Elle est en collusion avec l’industrie militaire.[36] Le thème de l’infiltration de l’OTAN dans les milieux scientifiques et mathématiques en particulier, est repris en juin 1972.[37] Déjà en septembre 1970 l’algébriste Roger Godement prenait position clairement en spécialiste de la question du complexe militaro-industriel.[38]
Sur l’industrie nucléaire civile et militaire le groupe Survivre… et vivre s’attache à produire une vulgarisation claire, accessible, et scientifiquement solide.[39] Pour qui a été marqué par la visite du musée mémorial d’Hiroshima, alors que nous vivons aujourd’hui un sursaut de l’industrie nucléaire lié à la raréfaction de l’énergie fossile, cette vulgarisation très bien faite est d’une grande actualité.
L’hyperspécialisation de la recherche scientifique est le thème le plus délicat philosophiquement, et sans doute celui qui tient le plus à cœur à Grothendieck ainsi que le montre le retrait qu’il observera à partir du milieu des années 1970. Il est abordé dans plusieurs articles de la revue [40] et surtout par la conférence au CERN de janvier 1972. Il y revient dans ses écrits littéraires Récoltes et semailles et La clef des songes. Sa position n’est pas complètement explicite, et, par là-même, nous transmet un certain trouble. C’est d’abord le constat que les raffinements ésotériques des mathématiques et de la physique sont trop loin des problèmes de l’avenir de l’humanité pour justifier l’importance que lui accordent les chercheurs spécialisés. Mais en même temps Grothendieck ne renie pas son travail intense en mathématique durant plus de vingt ans et semble satisfait – sans le dire – que ces mathématiques ne servent pas facilement à l’industrie. La conférence au CERN, avec le débat qui suivit, est une véritable confession publique. Grothendieck laisse entendre qu’il a la conviction que le talent dont il s’est servi pour les mathématiques pourrait, en gardant son authenticité, être utilisé différemment. Ses écrits littéraires seront là pour en donner une idée. Une continuité entre ce talent et une pratique de la méditation mystique lui est venue par une rêverie d’octobre 1976 (La clef des songes §16).
Cette critique de la science, peut-être la plus profonde, rejoint, avec le recul des années, celle apportée par les sciences humaines. Dès lors que la sociologie nous a fait comprendre que la construction de connaissance était un phénomène social et historique, la question se pose de savoir si en modifiant certaines structures sociales on peut aussi réorienter la science. Le processus de l’innovation ne va pas partout à la fois, il est conduit vers certaines directions. L’idée des science studies où l’on étudie la science en cours d’élaboration, est d’expliciter ces directions. En démocratie les changements de société reflètent, en principe, les volontés populaires. Seulement en matière d’environnement ces volontés populaires sont à courte vue et ne tiennent pas compte de faits profonds inaccessibles directement (couche d’ozone, saletés au fond des océans, etc.). Aussi bien cela peut avoir tendance à renforcer le scientisme et même à confier toute la fabrication de connaissance à des scientifiques ultraspécialisés qui restent complètement coupés des difficultés de la vie sur Terre. Autrement dit le plaisir des chercheurs de pointe reste-t-il le critère légitime aujourd’hui ? Ce plaisir est gouverné par une micro-élite très prestigieuse, et nous retrouvons la critique de l’institution et des arguments d’autorité. On peut dire que Grothendieck anticipait le scandale de l’Appel de Heidelberg.[41]
La mise en accusation de la science par le mouvement Survivre… et vivre est un événement très singulier à double titre. D’abord par sa radicalité et son indépendance vis-à-vis des forces politiques en présence. Ce petit groupe, aux frontières et aux règles de fonctionnement mal définies, se place d’emblée à un haut niveau d’exigence intellectuelle, il s’adresse à des lecteurs plutôt universitaires, et adopte un ton marqué par une inébranlable conviction rigoureusement argumentée. En second lieu, ce mouvement est surprenant par le fait qu’il est principalement animé par des mathématiciens, ce qui est curieux étant données son ambition morale et sa portée philosophique. Comme si ces brillants scientifiques, — essentiellement Alexandre Grothendieck, Pierre Samuel, Claude Chevalley, Roger Godement auxquels on peut adjoindre Denis Guedj, Jean-Paul Malrieu et quelques autres — partageaient une certitude qu’il ne jugeaient pas nécessaire de proclamer en préalable sur le devant de la scène.
Ce partage de compétences, notamment en géométrie algébrique, autour du groupe Bourbaki et dans l’aventure du mouvement Survivre ne les empêchait évidemment pas d’avoir chacun leur propre ligne de pensée.
Pierre Samuel est celui qui a le plus écrit sur l’écologie. Son ouvrage Écologie. Détente ou cycle infernal (Union générale d’éditions, 1973), est un traité très complet d’écologie politique – par opposition à l’écologie biologique étude des êtres vivants dans leurs habitats – qui aborde les tensions entre les usages et la vie : tension sur l’eau et l’air, sur les ressources, sur la nourriture ; tension urbaine ; tensions belliqueuses ; tension due à la surpopulation ; et aussi tension entre les sexes. Il y traite également de la question de la liberté et du mouvement écologique. Pierre Samuel est en faveur d’un écologisme qu’il qualifie de libertaire, par opposition au « zéroïsme » bourgeois[42]. Il critique la science à cause des conséquences aliénantes de la technique et de la consommation, mais reste rationaliste devant l’éco-mysticisme. Il rejoindra en 1973 le mouvement Les Amis de la Terre[43].
Roger Godement, célèbre pour son esprit critique et sarcastique, est celui qui a le plus approfondi la description et le fonctionnement de l’industrie militaire[44].
Claude Chevalley est plus proche des préoccupations d’Ivan Illich sur les relations qu’il convient de développer, notamment en matière d’enseignement, dans une société qui quitte le règne de la consommation.
Alexandre Grothendieck se distingue de ses amis par sa personnalité très authentique et diversifiée, et par une critique portant non seulement sur la science comme institution autoritaire, mais aussi sur le rationalisme lui-même, qui reste pour lui un outil et ne saurait se poser en compréhension du monde. Il se sépare sensiblement de Samuel sur ce point. La science telle qu’elle est pratiquée lui fait peur et il n’hésite pas à montrer cette inquiétude. Il accorde plutôt sa confiance à la raison quotidienne créative et artistique.
Dans ce chapitre je me propose de dégager une explication à la singularité du groupe Survivre… et vivre, même si, évidemment, il n’y a pas lieu d’y voir la seule cause historique.
– – –
Si, dans le vaste courant de l’écologie philosophique, biologique et politique, nous nous limitons aux thèmes en rapport avec les thèses de Survivre… et vivre sur la science, nous devons citer parmi les précurseurs les plus importants Rachel Carson et Barry Commoner.
Dans Silent Spring [45] (1962) Rachel Carson dénonce l’usage de poisons dans l’agriculture et son combat conduira effectivement à l’interdiction du DDT. Elle rejette une certaine vision « préhistorique » de la connaissance scientifique :
Le « contrôle de la nature » est une expression conçue avec arrogance, née à l’âge néandertalien de la biologie et de la philosophie, lorsqu’il était supposé que la nature existait pour la commodité de l’homme. Les concepts et les pratiques de l’entomologie appliquée datent pour la plupart de cet âge de pierre de la science. C’est un triste malheur qu’une science aussi primitive se soit dotée des armes les plus modernes et les plus terribles, et qu’en les retournant contre les insectes, elle les ait également retournées contre la Terre.[46]
Quant au biologiste Barry Commoner il observe les effets de la pollution sur la nature et pointe la responsabilité de chacun par l’usage qu’il fait de la science :
La science peut maintenant servir la société en exposant la crise de la technologie moderne au jugement de toute l’humanité. Seul ce jugement peut déterminer si les connaissances que la science nous a données détruiront l’humanité ou feront progresser le bien-être de l’homme.[47]
La condition humaine qui s’était envolée dans la métaphysique est retombée, recadrée par les faits scientifiques de base. Dès 1965 Commoner montre qu’elle est devenue concrètement « to survive on the earth »:
En tant que biologiste, je suis arrivé à cette conclusion : nous sommes arrivés à un tournant dans l’occupation humaine de la terre. L’environnement est un système complexe, subtilement équilibré, et c’est cet ensemble intégré qui reçoit l’impact de toutes les agressions infligées par les polluants. […] Jamais auparavant dans l’histoire de cette planète, sa mince surface vivante n’a été soumise à des agents aussi divers, nouveaux et puissants. […] Et parce que l’homme est, après tout, un élément dépendant de ce système, je crois que la pollution continue sur la terre, si elle n’est pas contrôlée, finira par détruire l’aptitude de cette planète à être un lieu de vie pour l’homme.[48]
L’ouvrage majeur de Commoner The Closing Circle, [49] paraît en 1971 en même temps que la revue Survivre… et vivre et juste avant le premier rapport du Club de Rome.[50] C’est dans cet ouvrage qu’il formule ses quatre lois de l’écologie. 1° La dépendance « Chaque chose est reliée à autre chose ». 2° « Chaque chose va quelque part » observation cruciale en matière de déchets qu’il désigne par la boucle fermée (the closing circle). 3° La nature sait mieux « Nature knows best » idée fondamentale sur laquelle nous reviendrons car elle est au cœur de notre enquête. 4° Il n’y a pas de bénéfice sans coût « There is no such thing as a free lunch » loi qui résume les trois précédentes.[51]
Pour mesurer la force de ces prises de position à l’époque, il faut voir combien elles contrastent avec la vision ordinaire de la science telle qu’elle était pensée par les savants les plus brillants durant l’entre-deux guerres, en particulier dans le monde anglosaxon. Citons quelques exemples. Le biologiste Julian Huxley (1887-1975) frère d’Aldous Huxley, plaide que la science n’est pas assez utilisée :
Il y a quelque chose dans l’évolution que nous devons nommer progrès, et elle a montré que nous-mêmes sommes maintenant armés pour être les artisans de tout le progrès évolutif qui reste à faire. Les biologistes peuvent dire, je crois, de façon nette que s’il doit y avoir continuation du progrès dans l’évolution, ce sera uniquement par le contrôle humain du processus. L’homme a appris à surmonter les forces aveugles et dévastatrices de la nature non humaine [sic], nous voyons l’homme créer la vérité.[52]
Le physicien James Jeans (1877-1946) voit l’humanité comme le fondement de la propre foi de l’homme en l’avenir :
L’homme commençait à voir qu’il était libre d’accomplir sa propre destinée sans crainte d’être troublé par l’intervention de dieux, d’esprits ou de démons. Toutefois il devint bientôt clair que l’homme ne pouvait prétendre accomplir sa propre destinée qu’en s’arrogeant précisément les pouvoirs qu’il venait de dénier à ces dieux détrônés — le pouvoir d’intervenir dans le cours prédestiné de la Nature.[53]
Ainsi le scientisme n’apparaît pas seulement comme une église, organisation sociale et liturgie, il constitue une pratique idéologique, une véritable religion. Dans le même ouvrage, le généticien J. S. B. Haldane (1892-1964) discute ce qu’on appelle avec des guillemets « l’eugénisme scientifique » c’est-à-dire la question de savoir s’il faut légiférer sur les naissances pour améliorer, ou ne pas détériorer, le patrimoine biologique de l’humanité. Il examine deux théories 1) La santé de la race nécessiterait la stérilisation des tarés. 2) Certaines races sont supérieures aux autres dont les membres sont incapables d’accéder aux plus hautes destinées de l’humanité. Il tente d’avancer sur cette question par des arguments de gènes et d’allèles sans poser le moindre problème éthique.
On voit donc le changement de vision morale qu’apportent Rachel Carson et Barry Commoner dans ce contexte de scientisme qui se revendique fièrement comme tel et qui, d’ailleurs, se perpétue aujourd’hui avec un discours encore plus ambitieux.[54]
Pour certains épistémologues, il est impossible qu’une avancée de connaissance ne soit pas un avantage, et sous une forme ou une autre un progrès, car on peut toujours gérer avec prudence la manière d’utiliser ce savoir. Pourtant le cas de la bombe atomique nous montre que la réalité n’est pas si simple. Les œuvres des philosophes Günther Anders et Karl Jaspers soulignent et expliquent cette erreur, et notamment la confusion entre une morale individuelle qui considère le contexte social comme donné et l’éthique collective qui porte sur l’avenir de la civilisation. Par son étude approfondie des causes des bombardements nucléaires d’Hiroshima et de Nagasaki, Karl Jaspers est un des précurseurs de Survivre… et vivre. Il y analyse en particulier le comportement des savants qui voudraient n’être responsables que de ce qu’on peut faire :
Après le lancement de la première bombe expérimentale, à un moment où il ne s’agissait que de finir la guerre contre le Japon, surgit la première indécision. Le comité directeur des chercheurs qui devait répondre à la question de Truman touchant le lâcher de la bombe sur une ville Japonaise se déclara pour le lancement. […] La plupart des savants ne parvinrent pas, semble-t-il, à se rendre parfaitement compte du fond des choses. […] C’est ainsi que la façon d’agir et de penser de nombreux savants a pu prendre cet aspect singulier : effrayés de ce qu’ils ont fait, ils réclament un esprit pacifique, une solution, tout en poussant l’affaire toujours plus loin. Des hommes d’une telle intelligence veulent et ne veulent pas : ils se comportent comme des enfants et parlent de tragédie.[55]
Le mouvement Survivre… et vivre a donc peu d’antécédents sur la critique radicale de la science. On peut néanmoins lui trouver des liens avec l’esprit du temps peu après Mai 68. Parmi les préoccupations de l’époque, la mise en question de l’avenir radieux dû au progrès est bien illustrée par l’ouvrage de G. R. Urban et M. Glenny Survivre au futur ?[56]Il s’agit de retranscriptionsd’émissions dialoguées diffusées sur Radio Europe Libre en 1970-71 avec vingt-deux intellectuels. Ces penseurs s’inquiètent de l’évolution qui se profile avec les deux blocs qui rivalisent, l’un et l’autre persuadés que le progrès scientifique et technique est la clef d’une économie prospère. Parmi plusieurs interventions remarquables celle du sociologue Edward Shils, professeur à l’université de Chicago, est particulièrement intéressante pour nous car elle analyse les comportements et mentalités des hommes de science :
Savants et techniciens ont tendance à trouver que leur tâche est de toute première importance […] Ce sont des gens tant soit peu naïfs ou hypocrites, qui sont toujours prêts à profiter de la crédulité de leurs semblables, non pas pour les manipuler, mais pour obtenir du trésor public les crédits nécessaires au financement de leurs recherches […] Or, si une partie de cette recherche a une valeur intellectuelle fondamentale du fait qu’elle apporte des renseignements essentiels sur la nature de l’univers, de la terre ou de l’homme, si une partie, même importante, de leurs travaux contribue au bien-être de l’humanité, il y en a une autre qui ne présente aucun de ces avantages et qui est même potentiellement nuisible.
Shils souligne le problème de l’élitisme, et que les hommes de science profitent souvent de leur prestige et de la liaison quelque peu mythique de la science et de la technique pour obtenir des fonds qu’ils emploient à leur gré. Il pointe un quiproquo sur le progrès fondé sur le fait que depuis le 20ème siècle surtout, ils sont considérés comme bienfaiteurs de l’humanité :
Les savants et les techniciens, indépendamment de leurs opinions politiques, souscrivent parfois à l’idée qu’il est possible de libérer complètement l’homme des contraintes qui ont entravé jusqu’ici son existence.
On voit que plusieurs des thèmes mis en avant par Alexandre Grothendieck, en particulier sur l’élitisme et le scientisme, étaient présents chez certains intellectuels à l’époque. Néanmoins l’esprit général de l’ouvrage Survivre au futur ? reste plus modéré que le ton adopté par le groupe Survivre… et vivre pour accuser la science.
Par ailleurs le mouvement Survivre… et vivre se situe au début d’un fort développement de la pensée écologique lié à des événements politiques spécifiques. Il est antérieur à la crise pétrolière de 1973, et à la campagne de René Dumont à l’élection présidentielle de 1974 qui provoqua la première prise de conscience du grand public en France de la gravité du problème écologique.[57]
Il précède également l’ouverture des marchés financiers dérivés qui eut lieu dans la seconde moitié des années 1970 dans toutes les places financières d’Occident et d’Orient, et qui peut être considérée comme une révolution dans les rapports de pouvoir entre les acteurs de l’économie libérale puisque dorénavant les meilleures prospectives étaient celles faites par les parties prenantes elles-mêmes opérant sur les marchés. Rétrospectivement on peut dire que les États occidentaux en tant que structures politiques ont perdu la majeure part de leur pouvoir de gouvernance sur l’environnement.[58]
On est juste après Mai 68 où les idéologies se sont opposées violemment, et la guerre civile a été évitée de peu. Dans l’arène politique et dans les médias les mathématiciens n’ont aucune légitimité. On en parle à cause des maths modernes. Introduites dans les programmes scolaires du collège et du lycée par la Commission Lichnerowicz, elles consistent à moderniser le langage en ramenant algèbre et géométrie au concept de base d’ensemble, amenant, en pratique, à des circonlocutions bien éloignées des besoins professionnels des élèves. Les mathématiciens ne sont pas à l’unisson sur cette initiative. Jean Dieudonné – mathématicien réputé animateur du groupe Bourbaki – avait démissionné de cette Commission au début de 1970.
Les dysfonctionnements pédagogiques furent attribués à Bourbaki. Ce groupe un peu mystérieux dont les membres gardaient le secret, qui avait entrepris une refondation de l’ensemble des mathématiques, était un bouc émissaire tout trouvé. D’autant plus que leur fameux traité, assez mal rédigé, malgré la qualité de la méthode et des idées, n’avait pas que des partisans à l’université.
Le mouvement Survivre… et vivre concerne l’écologie, mais d’une façon différente des classifications usuelles aujourd’hui. S’il soutient les thèmes de la préservation de la nature, de la lutte contre la pollution, s’il dénonce l’aliénation due à la technique et le complexe militaro-industriel, il ne préconise pas de principes déontologiques de rapport à la nature comme ceux que Arne Næss proposera en 1973 pour fonder la deep ecology.[59] Ces mathématiciens n’ont pas non plus contribué au courant des modélisateurs dans le sillage du Club de Rome, où l’on doit citer le soviétique Vladimir Vernadsky, le britannique James Lovelock, les économistes Herman Daly[60] et les frères Odum. En revanche, comme nous l’avons vu, ce mouvement s’en prend à la science elle-même. Non pas pour lui opposer une certaine sagesse philosophique, comme firent les philosophes Husserl, Heidegger ou Habermas, ni pour souligner l’influence du social comme feront les postmodernes, mais en tant que scientisme, institution et culte fonctionnant par des arguments d’autorité et grâce à des financements industriels et publics.
Les prises de positions de Survivre… et vivre sont si extrêmes et outrancières qu’elles n’ont aucune chance de peser dans la balance des forces politiques. La seule explication plausible est que ce petit groupe avec à l’étranger quelques Canadiens et le logicien Alan Slomson, composé de mathématiciens baignés de culture logique, était absolument convaincu des idées qu’ils avançaient audacieusement sur la place publique. L’attitude de Grothendieck dans ses prises de positions orales et écrites, ainsi que par ses relations avec le Collège de France, est vraiment faite pour montrer que sa conviction est entière, qu’il est prêt à sacrifier beaucoup pour le prouver, y compris ce qu’il a de plus cher : faire de la recherche.
Il est exceptionnel que des scientifiques s’en prennent à la science. Jacques Monod, pensait même que la science était capable de fonder la morale.
Qu’est-ce qui peut bien donner à des mathématiciens une légitimité pour critiquer la science ?
La réponse vient d’un fait historique de ce champ de connaissance : ils ont buté sur les limites. Ils savent qu’on ne fait pas les mathématiques avec des machines. Jamais la science réductionniste ne rendra compte de tout ce qui est et de ce qui advient. La crise des fondements des mathématiques des années 1930 est porteuse d’une disruption bien plus profonde que ce qu’en ont compris ses commentateurs non-initiés. Ludwig Wittgenstein ou Régis Debray, pour ne citer que deux exemples, n’ont vu dans le théorème de Gödel qu’une forme du paradoxe du menteur, alors que le point fondamental n’est pas là mais que, jusqu’aux années 1930, tout le monde envisageait normalement le succès du programme réductionniste de Hilbert : son échec est la preuve qu’il y a une fécondité inaccessible par le mécanique. En ce sens, cet échec est une victoire qui montre la vanité de vouloir tout réduire et ouvre la voie à un autre rapport à la réalité où la fécondité du réel dépasse les procédés récursifs poussés toujours plus loin.
La preuve du théorème de Gödel utilise un raisonnement de point fixe. On doit pour la clarté bien distinguer l’argument qui est utilisé dans la démonstration et la signification du théorème obtenu. L’usage d’une méthode de point fixe est fréquent en mathématiques pour obtenir des théorèmes d’existence. Par exemple pour résoudre une équation différentielle on itère avec une solution approchée jusqu’à obtenir un point fixe, c’est la méthode de Picard.[61] Mais, dans le cas du théorème de Gödel, c’est la signification du résultat qui est de première importance puisqu’il dit qu’il existe en arithmétique des énoncés indécidables et ensuite que la cohérence de l’arithmétique est un tel énoncé donc que le programme de travail engagé par Hilbert pour démontrer la non-contradiction de l’arithmétique est voué à l’échec.
A cette époque, les liens entre la logique mathématique et la biologie de synthèse ne sont pas explicités. Néanmoins, il est d’usage d’appeler « atomiques » les propositions de logique les plus simples avec lesquelles les autres sont composées. La ressemblance d’une démonstration mathématique avec une synthèse chimique est une évidence présente intuitivement dans l’esprit des logiciens.
Des principaux personnages de cet épisode fascinant, on peut dire que Pierre Samuel est l’écologiste, Alexandre Grothendieck le révolté, Roger Godement le spécialiste des liens entre l’économie et l’armée, et Claude Chevalley, d’une dizaine d’années plus âgé, ami de Herbrand,[62] est celui qui soutient la place historique des mathématiques dans cette affaire. Ils ont tous une solide formation en logique.
Un fait précis, le colloque de logique d’Uldum d’août 1971 révèle l’importance pour le groupe de la question des fondements des mathématiques.
En août 1971, alors que le développement de la théorie logique des modèles est d’une grande actualité, Grothendieck et d’autres sont choqués que le colloque britannique de logique prévu à Cambridge soit partiellement financé par l’OTAN. Un colloque dissident est organisé à Uldum, au Danemark, avec une série de cours où l’on trouve de grands noms : de Grothendieck sur les catégories[63], de Max Dickmann sur les modèles[64], ou encore de Martin-Löf sur la théorie de la démonstration[65]. Le logicien Alan Slomson (spécialiste des ultra-produits[66]) rapporte les discussions préalables à cette dissidence dans un article d’une cinquantaine de pages très révélateur des préoccupations de ces mathématiciens-logiciens.[67]
Il faut aussi se replacer dans le contexte universitaire de l’immédiat après Mai-68 où le marxisme, sous des formes variées, était la référence permanente, aucun cours ne pouvait se tenir sans des débats préalables quant à la pertinence des connaissances enseignées.[68] A mon avis, les mathématiciens dont nous parlons avaient trouvé le moyen d’échapper par le haut à ce marxisme intellectuel omniprésent qui accompagnait le parti communiste et s’infiltrait partout.
Ces mathématiciens avaient compris l’ignorance définitive. Ils connaissaient les questions des fondements et, alors que la découverte de Watson et Crick sur la structure de la molécule d’ADN était faite depuis les années 1950, le dictionnaire « bio – logique » qui permet de voir les énoncés comme des molécules[69], était pour eux plus ou moins évident, sans avoir besoin d’en parler. La conséquence qu’ils en tiraient était qu’il fallait s’engager, plutôt que d’essayer d’expliquer ces choses difficiles incapables en elles-mêmes de faire bouger le grand public. Il valait mieux mener le combat pour montrer l’importance des enjeux.
– – –
Pour comprendre que les résultats de logique des années 1930 étaient véritablement porteurs d’une vision du monde nouvelle chargée de conséquences sur l’ambition scientifique, sur le progrès et sur l’environnement, l’étape primordiale est de mettre en lumière déjà comment ces résultats changent la vision des mathématiques elles-mêmes en tant que construction de connaissances. Ce détour par l’épistémologie et la philosophie peut expliquer l’énigme de la radicalité de Survivre… et vivre vis-à-vis de la science.
Les mathématiques ne sont pas une science nomologique.
Cela veut dire qu’elles ne sont pas faites de lois, νόμος en grec est la loi. C’est la grande surprise des années 1930, cela signifie qu’elles ne consistent pas à trouver des lois comme la physique et comme le positivisme voyait toute la science.[70] En physique il y a des lois, par exemple que la période des petites oscillations du pendule ne dépend pas de sa masse mais que de sa longueur. Et si d’aventure la loi venait à être contredite par l’expérience, il faudrait changer le domaine d’application de la loi, et pour cela les physiciens auraient à utiliser leur grand attirail mathématique pour trouver une formulation qui conserve ce qu’il fallait garder et qui propose une meilleure règle pour ce qu’il faut changer. Chez Aristote toute la science est aussi faite de lois, l’aphorisme qu’il n’y a de science que de l’universel ne dit pas autre chose. Et c’est encore la même idée qui est reprise par Auguste Comte : l’expérience donne des points et le physicien les interpole par une fonction qui les résume. Certes la physique parle un langage mathématique, et résume les régularités par des formules, mais écrire une formule, si belle soit-elle — Euler en écrivit de splendides — n’est pas dans l’acquis mathématique tant qu’elle n’a pas été démontrée.
Déjà à la fin du 18ème siècle Emmanuel Kant s’était rendu compte qu’il y avait une difficulté avec les mathématiques. Comment pouvaient-elles apporter du savoir avec le seul moyen de la déduction logique ? Comment pouvaient-elles être a priori (sans tirer de ressources de l’expérience) et néanmoins synthétiques c’est-à-dire informatives ? Sa façon de résoudre ce problème par la catégorie ad hoc des jugements synthétiques a priori, lui valut la critique de la plupart des philosophes du 19ème siècle dont Hegel et Schopenhauer.
Ce n’est qu’au 20ème siècle qu’est venue la lumière sur cette question. Le travail des mathématiciens n’est pas de trouver des lois mais de trouver des démonstrations ce qui est très différent. Il n’y a pas de loi, une sorte de mécanique des fluides, qui dirait le flux de la vérité à partir des axiomes pour conduire aux théorèmes. Chaque démonstration est une trouvaille et il n’y a pas de lois pour en trouver.[71]
Les résultats de Gödel sur l’incomplétude ont été les premiers, mais ils ont été prolongés, autour des questions d’indécidabilité, par ceux d’Alonzo Church et d’Alan Turing qui étendent ces propriétés à d’autres systèmes formels que l’arithmétique, et en particulier à des systèmes sans négation comme les systèmes de Thue où la combinatoire va au-delà de ce qui est calculable par algorithmes.
Pour saisir la rupture épistémologique de cette découverte il faut la relier au principe de pureté des méthodes. Il s’agissait d’une règle de l’art, un peu comme la tonalité en musique. On considérait qu’il était préférable, plus beau disons, plus élégant, de n’utiliser dans la preuve d’un théorème que les notions strictement nécessaires à la compréhension de l’énoncé du théorème. Cette recommandation méthodologique venait du fait que jusqu’à la fin du 19ème siècle les mathématiques n’étaient pas formalisées de sorte qu’il n’était pas absolument clair de ce qu’étaient les mathématiques vraiment, elles étaient limitées par des zones un peu grises. Les mathématiques étaient considérées comme le langage des grands traités, celui d’Euclide, celui de Descartes, etc. Il convenait donc d’utiliser les hypothèses avec parcimonie pour ne pas rajouter de connaissances extérieures. C’était explicitement ce que voulait faire David Hilbert pour avancer dans le programme qu’il avait énoncé au début du 20ème siècle de démontrer la non-contradiction de l’arithmétique. De sorte que l’échec du programme de Hilbert vient disqualifier le principe de pureté des méthodes.[72]
Les excursions sont créatives en mathématiques. On peut démontrer plus de choses avec des méthodes impures. Faire des détours est fécond. On obtient plus de résultats sur les nombres réels en passant par les nombres complexes, plus sur les entiers en passant par la théorie des ensembles.
Un énoncé étant donné il n’y a pas d’algorithme pour savoir s’il est démontrable ou pas, il faut essayer. Le grand théorème de Fermat (qui est une propriété de nombres entiers[73]) a été démontré par Andrew Wiles en utilisant la géométrie algébrique. On peut dire que l’ensemble des théorèmes (c’est-à-dire les énoncés démontrables) n’est pas à disposition. Et à partir d’un énoncé il n’y a pas de borne supérieure calculable à la longueur des démonstrations qu’il faut essayer pour le démontrer.
Dans sa discussion de l’épistémologie husserlienne des mathématiques Jean Cavaillès montre d’abord que Husserl introduit le terme nomologique pour des théories ayant la propriété de désigner sans aucune ambiguïté ce dont elles parlent, propriété que nous désignons aujourd’hui du terme de catégoricité. Cavaillès note que cette propriété est exceptionnelle en mathématiques et pousse plus loin la discussion en évoquant la récusation du principe de pureté des méthodes, même s’il n’emploie pas cette expression, il pointe l’importance des détours qui reviennent dans le langage initial :
Il est bien évident que pour des théories saturées [complètes] toute proposition en termes de cette théorie est ou démontrable ou réfutable à partir des axiomes. Mais ce qui pose problème est alors l’utilité d’un détour : pourquoi une démonstration se trouve-t-elle plus simple – sinon seule possible – grâce à l’adjonction en cours de route, et disparaissant au terme, d’éléments idéaux : nombres complexes en analyse ordinaire, nombre réels en analyse des entiers ».[74]
Les mathématiques sont capables d’engendrer du simple à partir de trajets très compliqués qu’on ne sait pas simplifier. On peut appeler ce phénomène l’hétéropoïèse.
Un exemple élémentaire et célèbre de détour hétéropoïétique est la démonstration du théorème de Desargues relatif à deux triangles du plan disons ABC et A’B’C’ tels que les droites reliant les sommets correspondants AA’, BB’, et CC’, soient concourantes. Le théorème affirme que dans ce cas les droites portant les côtés correspondants AB et A’B’, BC et B’C’, CA et C’A’ se coupent selon trois points alignés. La preuve par des raisonnements de géométrie plane n’est pas immédiate. En revanche la propriété s’illumine d’évidence si l’on considère dans l’espace la section d’un tétraèdre par un plan et que la figure plane en est la projection centrale.[75]
On voit que l’activité du mathématicien comme trouveur de preuves est très loin du scientifique tel qu’il était pensé par Auguste Comte, Claude Bernard ou Jacques Monod. Et cela vient de ce que toute la métaphysique était imprégnée d’un principe que le principe de pureté des méthodes entraîne dans sa chute : le principe de raison suffisante.
Il est au cœur de la philosophie de Leibniz et s’énonce ainsi :
Rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est‐à‐dire qui puisse servir à rendre raison a priori pourquoi cela est existant plutôt que non existant et pourquoi cela est ainsi plutôt que de toute autre façon.
En latin nihil est sine ratione (rien n’est sans raison). C’est l’affirmation que l’univers des causes est assez riche pour rendre compte de tout ce qui est. Un tel principe pouvait être énoncé par un mathématicien du 18ème siècle qui, d’une part, envisageait que le monde se laisse représenter par les mathématiques (suivant l’adage galiléen), et d’autre part pensait que les mathématiques étaient complètes, comme on l’a cru jusqu’au début du 20ème siècle. C’est une pensée qui sous‐estime la complexité de la combinatoire. En se reliant, les monades composent des entités complexes. Mais, à l’inverse, se demander si telle entité complexe est accessible par les combinaisons de monades regroupées est une question qu’à l’époque nul n’envisage sans réponse. Le principe de raison suffisante y pourvoit et cache cette difficulté.
Les avancées dans la modélisation du hasard du 17ème au 20ème siècles ont suggéré une formulation plus large du principe de raison suffisante pour la prise en compte des phénomènes contingents. La cause du nombre obtenu à la roulette existe, elle est purement mécanique mais le résultat peut varier dans un champ en fonction de l’enchevêtrement des effets. Nous disposons maintenant d’un véritable continuum de modèles, du déterministe au stochastique, où la loi conditionnelle de ce qui peut être prédit sachant les données observées par l’expérience, a un degré d’indépendance variable.[76]
Mais le rejet du principe de pureté des méthodes ruine le principe de raison suffisante, même arrangé pour tenir compte de la contingence, pour une raison complètement différente : une question de langage, ce qui peut être dit et ce qui appelle des détours dans des langages plus vastes.
Le principe de pureté des méthodes – qui pose que le langage utilisé est suffisant – n’est pas autre chose qu’un cas particulier du principe de raison suffisante de Leibniz : Il y a assez de causes pour faire tout exister. On peut considérer que le principe de raison suffisante est une version prémoderne du matérialisme. Leibniz ne dit pas que tout est matière, mais il pense que tout a une cause et si celle-ci n’est pas matérielle c’est qu’elle est divine. Par cet argument il rend le principe de raison suffisante irréfutable.
Seulement à partir du 19ème siècle, dieu n’est plus guère invoqué pour fonder les principes métaphysiques, et nous voyons que l’incomplétude, en ruinant le principe de pureté des méthodes, ruine le principe de raison suffisante, donc ruine le matérialisme, et nous détache du marxisme-léninisme, sans pour cela convoquer dieu.
Nous sommes ainsi revenus tout près de notre énigme à propos de Survivre… et vivre. Le scientisme, qui pense que la science est sur le chemin de contenir toute la réalité, est une erreur, une déviance, qui ne se perpétue que par ses clercs et le battage idéologique. Même s’il est vain d’expliquer cela au grand public.
Ces détours créatifs qui grapillent dans un ailleurs et reviennent près du point de départ existent-ils aussi hors des mathématiques ? Assurément. Il s’agit d’une idée qui enrichit toute la philosophie de la connaissance.
Le plus bel exemple, qui, une fois de plus nous laisse pantois devant la perspicacité et la profondeur de la civilisation grecque, est l’Odyssée. Finalement Ulysse revient en Ithaque après un long périple autour de la Méditerranée. Il lui est arrivé toutes sortes de péripéties totalement imprévues, hors de ce qui était imaginable. A la cour de Pénélope on parle toujours le même langage, les us sont les mêmes. Par rapport à ceux qui sont restés, lui a changé parce qu’il a vécu énormément, personne ne le reconnaît, excepté son chien.
La cure psychanalytique est un deuxième exemple. Lorsqu’elle se déroule ainsi que Freud le préconisait, elle va quérir des affects enfouis dans l’inconscient pour les amener au moi conscient. La méthode consiste, sous le climat du transfert, à tenter de dégager une signification de rêves réellement rêvés, exprimée oralement par le patient. Dans son traité Die Traumdeutung Freud procède avec une grande précaution pour ne pas se prendre au piège de ne dégager que des lectures qui lui seraient propres. Il reste très soucieux de ne pas surinterpréter les récits oniriques rapportés. Il reconnait que toute littéralité risquerait d’être trompeuse. Il écrit ainsi :
La manière dont le rêve exprime les catégories de l’opposition et de la contradiction est particulièrement frappante : il ne les exprime pas, il paraît ignorer le « non ». Il excelle à réunir les contraires et à les représenter en un seul objet.[77]
L’inconscient est un monde étrange, hétérodoxe. Le rêve en témoigne par un langage ambigu. Et finalement la cure rapporte de ces excursions des fragments compréhensibles dans le langage ordinaire.[78]
Un autre exemple nous est fourni par le physicien Niels Bohr dont la philosophie est une épistémologie tirée de la mécanique quantique. On sait que le principe de Planck, que l’énergie au niveau atomique est échangée de façon discrète par quantum d’énergie, est corroboré par l’analyse des fréquences d’absorption et d’émission des atomes selon les séries de raies spectrales (série de Balmer, de Rydberg-Ritz, etc.). Niels Bohr, représentant de l’École de Copenhague, est amené à expliquer qu’une vision de l’atome où les électrons occupent des niveaux d’énergie quantifiés, est compatible avec la nature ondulatoire de la lumière, qui, elle, s’impose par l’observation des interférences et par les équations de Maxwell. La mécanique quantique présente plusieurs dualités qui ont la forme logique d’incompatibilités : entre position et vitesse avec les relations d’incertitude de Heisenberg, etc. La plus simple est la nature à la fois ondulatoire et corpusculaire de la lumière illustrée par les interférences et par l’effet photoélectrique où les photons expulsent des électrons d’une cible métallique. Cette complémentarité a, en théorie quantique, la place d’un paradigme au sens de Thomas Kuhn. Dans ces débats, l’argument de Bohr est fondamental :
La continuité spatio-temporelle de la propagation de la lumière et le caractère atomique des effets de la lumière doivent être considérés comme complémentaires en ce sens qu’ils expriment chacun des traits également importants des phénomènes lumineux, traits qui, tout en apparaissant comme inconciliables du point de vue de la mécanique, ne pourront jamais entrer en contradiction directe, car leur analyse précise en termes mécaniques exige des dispositifs expérimentaux qui s’excluent mutuellement.[79]
Et il insiste sur ce point dans ses discussions avec Einstein :
Aussi loin que les phénomènes puissent transcender la portée des explications de la physique classique, la description de tous les résultats d’expérience doit être exprimée en termes classiques. La raison en est simple : par le mot d’ »expérience », nous nous référons à une situation où nous pouvons dire à d’autres hommes ce que nous avons fait et ce que nous avons appris ; il en résulte que la description du dispositif expérimental et des résultats des observations doit être exprimé en un langage dénué d’ambiguïté, se servant convenablement de la terminologie de la physique classique.[80]
On voit que la mécanique quantique a une position épistémologique très particulière. Elle consiste typiquement en une excursion qui part de la physique classique et revient à la physique classique. Le corpus de la théorie quantique (avec ses espaces de Hilbert et ses algèbres de von Neumann) apparaît comme une région linguistique à laquelle on fait appel transitoirement et qui apporte néanmoins la meilleure façon de prédire ce qui se passe en termes classiques finalement.[81]
L’électron de l’ancien langage est comme une projection simplifiée d’une situation plus complexe que décrit le nouveau langage. Ne serait-ce que par les objets mathématiques qu’elle utilise, la mécanique quantique apparaît comme une extension du monde ordinaire. Et l’accueil d’un tel procédé typiquement hétéropoïétique surpasse la rationalité classique.
C’est en chimie, et plus précisément en biologie moléculaire, que la méthode d’hétéropoïèse — faire des détours pour revenir à proximité du point de départ et dans le langage de départ — est porteuse des enjeux les plus importants. Par l’analogie combinatoire que nous avons évoquée plus haut qui nous fait voir une molécule comme un énoncé et la synthèse moléculaire comme une démonstration, elle transporte en biologie les paradigmes de l’indécidabilité et de la non-calculabilité effective. Il est possible de montrer que la combinatoire biochimique est assez riche pour que ces limitations apparaissent.
Que les mathématiques ne soient pas nomologiques n’est, en un sens, pas tellement surprenant si l’on pense à la variété des énoncés qu’elles produisent. On peut admettre facilement que leur structure logique leur donne certaines propriétés syntaxiques. La thèse que j’avance est que ces particularités combinatoires en se transmettant à la chimie et à la biologie entraînent des principes nouveaux dans la consistance et dans les limites des connaissances empiriques de ces sciences.[82]
A cause du phénomène d’effacement, ces limitations mettent le biologiste dans une situation similaire à celle du mathématicien devant des énoncés qu’il essaie de démontrer. Car au cours de l’évolution la part combinatoire de l’hérédité, transcrite sur l’ADN, a subi des mutations qui pour certaines ont effacé une partie des trajets de synthèse à partir des molécules très anciennes les plus simples. Nous sommes devant des êtres vivants déjà constitués sans disposer de l’historique complet qui permit de les synthétiser à partir des êtres plus archaïques. Nous retrouvons l’observation de Commoner : Nature knows best.
Pour revenir à nos mathématiciens de Survivre… et vivre, il est clair que cette prise de conscience sur la nature des mathématiques et de la biologie leur donnait un recul vis-à-vis de la foi scientiste tel que professée par exemple par Ernst Haeckel.
Mais il est évident également que cette vision de la science définitivement incomplète n’était pas transmissible au grand public ni mobilisable dans les débats politiques. Les critiques qu’ils formulent publiquement sont plus concrètes, même si la rigueur qu’ils affichent semble se référer, sans le dire, à leur culture de logiciens.
Dans leur revue Pierre Samuel écrivait dès 1971 :
L’oubli des limitations de la science est la cause directe de plusieurs des mythes qui constituent le credo du scientisme.
Les mathématiques ont eu un rôle historique pour déclencher cette refonte de l’épistémologie, parce qu’on était préoccupé par les questions des fondements et qu’on a pu démontrer l’incomplétude de l’arithmétique et des axiomatiques utilisées par les mathématiciens. Mais depuis ce temps un grand nombre de systèmes combinatoires ont été étudiés et se sont révélés dépasser le domaine des algorithmes.[83]
Il apparait clairement que la vision des sciences des mathématiciens-logiciens de Survivre… et vivre était en rupture totale avec la vision nomologique classique telle que présentée dans le célèbre colloque Criticism and the Growth of Knowledge.[84]
Cet ouvrage, en effet, sous la forme vivante de débats philosophiques, peut être considéré comme la référence majeure de la pensée sur la science pour la seconde moitié du 20ème siècle. Il constitue la principale synthèse de l’épistémologie de la connaissance nomologique avec la physique comme discipline reine. Aussi bien est-il révélateur que ni Gödel, ni Church, ni Turing n’y soient cités, ni d’ailleurs les biologistes Watson et Crick.
A la lumière de notre discussion, le lecteur de ce livre classique, aujourd’hui, ne peut manquer de faire un rapprochement. Il apparaît que Thomas Kuhn, en séparant à juste titre la science normale et les révolutions scientifiques, n’a pas vu que la raison profonde de cette curieuse progression par sauts tient à ce que la science normale suit un principe de pureté des méthodes, alors que les révolutions scientifiques relèvent d’excursions hétéropoïétiques, et que ce phénomène, général, se retrouve dans la synthèse chimique et porte à conséquence sur la connaissance en biologie.
Le monde dans lequel nous vivons se trouve côtoyer l’inconnu dans un registre nouveau, celui de la combinatoire. Le changement que cela apporte à la philosophie de la connaissance réside dans le fait que des configurations particulières, que nous ne connaissions pas et que nous rencontrons fortuitement, peuvent venir modifier les propriétés des agrégats que nous connaissions. Autrement dit, les capacités d’une molécule (en état stable ou métastable) à participer comme maillon à une chaîne de synthèse, ne sont pas définitivement closes, une certaine ignorance les accompagne en permanence. L’ignorance, que le scientisme voulait voir comme un état transitoire de la civilisation sur chacun des domaines où on la rencontrait, devient une condition humaine définitive, impliquée par les propriétés de la combinatoire, en particulier pour molécules susceptibles de prendre part au vivant.
La question qu’il nous
faut aborder maintenant est d’examiner s’il est légitime de ranger cette
ignorance combinatoire sous la loi du hasard afin de la penser plus facilement
et de la maintenir dans le champ du nomologique.
3. Naturaliser l’artificiel ?
Ce chapitre présente quelques petites technicités, je m’en excuse. J’espère qu’il ne rebutera pas le lecteur, mais l’incitera, au contraire, à approfondir. Je ne me suis résolu à évoquer des concepts un peu délicats que parce que je n’ai pas trouvé d’autres moyens d’invalider les slogans tendancieux repris par des journalistes péremptoires. Pauvre hasard ! Le voilà transformé en fourre-tout, et même en action de grâce pour pardonner toutes les bêtises.
J’ai pensé que prendre tout cela à la légère n’était pas mon rôle. Les nombreux étudiants que j’ai eus m’ont toujours su gré d’être le plus clair possible.
Il est tout à fait vraisemblable qu’il y ait une part de hasard dans l’évolution. Mais il y a plusieurs sortes de hasard. Il y a des répartitions désordonnées qui ne satisfont pas toutes les lois du calcul des probabilités. Les mutations ne sont certainement pas indépendantes de tout contexte comme des tirages à la roulette. Ce que nous ignorons n’est pas pour autant sous la loi du hasard.
La progéniture d’un être vivant, d’un couple dans le cas sexué, en première approche, peut se représenter par un processus avec de l’aléa, du déterminisme et un contexte. Mais l’évolution ne va pas partout. En matière de processus où le hasard intervient, certains processus visitent tous les états possibles et d’autres partent vers le lointain sans avoir le temps de passer partout.
Chaque individu de cette descendance est pourvu d’un grand nombre de fonctionnalités qu’on appelle son phénotype. Pour tenir compte de ce que certaines de ces facultés sont liées à l’environnement on parle aussi d’écophénotype. Les processus concernés par l’évolution sont dépendants d’un très grand nombre de facteurs et pour cette raison n’ont pas le temps de passer partout.
Réductibilité vs irréductibilité
On dit qu’un processus est irréductible s’il visite tous les états avec une probabilité strictement positive. Il est alors d’un seul tenant, on ne peut le restreindre à une partie de l’espace des états.
Le processus est dit au contraire réductible ou en archipel si on peut l’étudier sur différentes parties de l’espace des états.
Le processus de l’évolution peut être considéré irréductible (d’un seul tenant) dans ses stades de base comprenant les virus, les bactéries et les archées comme dans l’humus ou le plancton parce qu’il y a fréquemment des transferts horizontaux d’ADN à ce niveau. En revanche les êtres vivants complexes comme les plantes et les animaux à notre échelle forment en général des isolats qui ne sont pas interféconds, le processus est alors en archipel au sens ci-dessus.
Conceptuellement les deux notions « d’un seul tenant » ou « en archipel » sont claires. Cependant elles sont très difficiles à distinguer expérimentalement. Car dans le cas d’êtres vivants complexes la probabilité d’accès par mutation à un phénotype très différent peut être positive mais devenir extrêmement faible. Le plus souvent, lorsqu’il y a un isolat sa frontière n’est pas marquée par un indicateur quantitatif précis mesurable. Quelle est la probabilité qu’apparaissent des placentaires parmi les marsupiaux ?
En outre, il est une autre raison qui empêche d’appliquer les méthodes statistiques comme on fait d’ordinaire pour connaître la réalité soumise à de l’aléa :
Récurrence vs transience
Cela fait intervenir une notion différente qui concerne les trajectoires du processus. Un processus est dit récurrent s’il passe une infinité de fois par un même état. Il est dit transient dans le cas contraire, il finit alors par s’éloigner de nouveauté en nouveauté indéfiniment.
Il existe des mutations par délétion, on peut donc imaginer que l’évolution fasse des boucles. Il est possible aussi que le processus soit récurrent tout en visitant des états nouveaux à chaque boucle. C’est ce qui se passe pour une promenade aléatoire en dimension 2 mais ceci ne se produit pas si l’éventail des choix à chaque mutation est grand. Autrement dit pour des phénotypes relevant de nombreux paramètres les mutations sont très diverses et le processus est transient.[85]
Ceci a une conséquence importante. Si on poursuit très loin une lignée on aura beau faire des statistiques sur cette trajectoire observée, cela ne donnera pas la loi de la répartition des choix à chaque étape où les mutations sont possibles, on n’aura qu’un seul historique du processus.[86] Si on raisonne sur une population, la dispersion du phénotype et la variabilité de l’environnement rendent les informations probabilistes extrêmement difficiles à mesurer effectivement dans la nature.
Considérons un chien, la probabilité que dans sa descendance apparaisse, au bout d’un temps non précisé, un pelage zébré est extrêmement faible. Autrement dit dans la plupart des lignées un pelage zébré n’apparaîtra jamais. Néanmoins nous ne serons à aucun moment en situation de pouvoir démontrer que la descendance n’aura pas de pelage zébré. Les gros sabots c’est alors de conclure « la nature peut faire n’importe quoi ». Nous avons le devoir de ne pas nous laisser gouverner par les porteurs de gros sabots. Surtout si avec une candeur affectée, ils plaident en réalité pour des lobbies financièrement intéressés.
On voit que l’évolution est un processus dont on n’a et ne peut avoir qu’une connaissance très partielle. Il nous faudrait un grand nombre d’évolutions en parallèle, sur des planètes différentes, pour connaitre les lois.
Innocuité et propriétés semi-définies positives.
A cause de la combinatoire dont nous avons parlé au chapitre précédent, il est des questions devant lesquelles la science dans son ensemble, n’est pas en situation de dire c’est oui avec telle probabilité p, c’est non avec la probabilité 1-p. Les logiciens disent que ces propriétés sont semi-définies positives.
Pour le faire comprendre imaginons un ouvrier chargé d’examiner un lot infini de pommes passant devant lui sur un tapis roulant. Si d’aventure il rencontre une pomme véreuse alors il est sûr qu’il y a des pommes véreuses dans le lot, mais si nous imaginons que l’ouvrier ne rencontre jamais de pommes véreuses alors l’ouvrier ne saura jamais s’il y a des pommes véreuses ou non dans le lot. C’est moins trivial qu’il n’y paraît si l’on pose la question existe-t-il un groupe de dix zéros à la suite dans les décimales de √2 ? Si l’on découvre une telle suite, la réponse est positive, si on n’en trouve pas on ne sait pas répondre à la question.[87] Si la nature produit tel résultat on le saura, mais si nous n’observons jamais ce résultat, jamais nous ne saurons si elle peut le faire ou pas.[88] Ce type de situation se présente-t-il pour les décisions relatives à la sécurité sanitaire ? Tout à fait. Supposons une plante OGM, disons une plante à fleur avec des spores, dans l’ADN de laquelle on a inséré une séquence nouvelle. Y a-t-il une classe d’êtres vivants menacés par l’innovation ? Tant qu’on n’en a pas trouvé on ne sait pas s’il y en a ou pas. C’est la situation générale. Il y a une insuffisance du savoir pour qualifier exactement les risques.
Par notre impact sur la biosphère, nous parvenons à un stade de développement technique où des événements graves se produisent. Ils ne sont pas tous certains mais des dégâts irréversibles sont incontestablement en cours. Quant aux épidémies graves, aux guerres nucléaires, et autres événements eschatologiques, on est bien forcé de les envisager, en espérant que leur probabilité reste petite. Il est alors indispensable de préciser le sens et la portée des termes employés.
En biologie, à cause des phénomènes combinatoires, les risques ne relèvent pas d’une analyse coût-bénéfice où l’on pourrait peser les avantages et les inconvénients avec une balance pondérée comme on fait en s’en remettant au marché.
Si l’innovation est un succès en laboratoire, elle apportera une connaissance, une méthode ou une molécule qui représentera une valeur et pourra être brevetée comme produit ou comme procédé. Mais si une erreur a lieu et que des gènes artificiels sont libérés, alors on entre dans un scenario dont l’affaire du laboratoire BSL4 de Wuhan nous donne une idée. Si des dégâts graves sont provoqués, le laboratoire va tenter d’effacer les preuves, et comme il reste à la merci d’un retournement des chercheurs responsables, les autorités vont les éloigner en leur ôtant toutes traces de preuves matérielles, jusqu’à éventuellement les traquer comme des lanceurs d’alerte.
Lorsqu’il s’agit de ce que l’évolution peut faire, ou ne peut pas faire, la science se trouve dans une situation dissymétrique. Cela ruine un argument philosophique classique souvent mis en avant, que l’on peut formuler de la façon suivante :
Beaucoup de biologistes considèrent qu’il y a du hasard dans l’évolution, et encore davantage admettent que la nature n’a pas d’intention dans son déroulement diachronique. Mais a contrario, ils font valoir que lorsque l’homme intervient sur la nature, extérieure ou humaine, l’homme a une intention, il cherche à améliorer la médecine, l’agriculture et l’élevage, et c’est ce qui justifie ses essais concernant les OGM et les nouvelles techniques génomiques (NTG).
Seulement il y a une dissymétrie qu’on ne peut pas faire semblant de ne pas voir, car elle est flagrante : l’expérimentateur ne dispose pas de toute la nature pour tester l’innocuité de l’innovation, il n’est pas maître de la totalité de l’environnement. De sorte que si l’innovation est une réussite en laboratoire, elle pourra déboucher sur des développements économiques, tandis que si elle déclenche un jour ou l’autre de graves dégâts, cela sera attribué à un hasard malheureux et personne n’aura la responsabilité de ces dommages parce qu’ils résulteront de ce que l’ensemble de la nature n’est connu de façon exhaustive par personne et que la pensée économique libérale considère qu’on n’est pas tenu de savoir ce qui va se passer en matière d’environnement.
C’est une idéologie, qui admet par principe que la biologie a le droit de perturber l’environnement à l’aveugle. D’où vient-elle ? Elle vient à l’évidence du bon dieu qui gère la providence. Comme le soulignait Rachel Carson cela relève de la croyance « datant de l’âge néanderthalien de la biologie, que la nature existe pour la commodité de l’homme ».
Sans compter qu’il serait naïf de considérer que l’intention humaine est toujours généreuse. Les armes biologiques sont étudiées par la DARPA[89] et sans doute également par la Chine et la Russie.
La tempérance collective
Cela nous amène à la question de la sagesse sur ce type nouveau d’empirisme. Il est symptomatique que Jacques Monod et François Jacob se soient trompés précisément sur le point de vue « raisonnable » qui émanerait naturellement du collectif des biologistes. Monod affirme dans Le hasard et la nécessité (1970) :
Sans doute pourra-t-on pallier certaines tares génétiques, mais seulement pour l’individu frappé, non dans sa descendance. Non seulement la génétique moléculaire moderne ne nous propose aucun moyen d’agir sur le patrimoine héréditaire pour l’enrichir de traits nouveaux, pour créer un « surhomme » génétique, mais elle révèle la vanité d’un tel espoir.
De même François Jacob dans La souris, la mouche et l’homme (2000) à propos des manipulations qui touchent au patrimoine génétique de l’humanité, écrit
Mais là, on change d’objectif […] Il ne s’agit plus de soigner l’homme, mais de le modifier, de le façonner. Et l’ensemble des biologistes semble d’accord : à éviter à tout prix.
Dans le dernier chapitre de son livre Monod insiste explicitement sur la morale qui émanerait du travail scientifique consciencieux et qui aurait valeur pour conduire l’humanité. Pourtant l’ensemble du livre est la démonstration qu’une nouvelle liberté est ouverte. Puisque selon lui la nature procède au hasard, comme une roulette, un nouveau champ d’exploration s’offre à nous qui promet des merveilles, c’est le nouvel empirisme de synthèse. François Jacob pour l’action de la nature utilise plutôt le terme de bricolage qui est aussi ambigu du point de vue de l’empirisme. Ils misaient l’un et l’autre sur la rationalité classique pour enfanter une sagesse, alors que ce qu’ils ont transmis finalement c’est au contraire le goût addictif à manipuler le vivant en se servant de toute éventualité de la combinatoire biochimique.
Innocenter les NTG
Il est tout à fait clair que les services de la Commission européenne s’emploient à blanchir les NTG de toute responsabilité sur les dommages éventuels. La raison en est qu’évidemment tout obstacle à la commercialisation des herbicides et pesticides artificiels représente des pertes économiques. Nous approfondirons ce volet au chapitre 4. Mais comment est traitée cette question du point de vue normatif est plus surprenant. La vision de la science sous-jacente est importante, car on fait de la science un levier juridique dans les prétoires, quoique les juristes n’aient pas les moyens de la vérifier ni même souvent de la comprendre au détail.
Des sophismes pour embrouiller les plaidoiries.
Les nouvelles techniques génomiques (NTG) désignent les différents procédés permettant de modifier l’ADN d’un être vivant depuis les irradiations qui créent des mutations désordonnées, jusqu’aux techniques CRISPR découvertes récemment, en principe plus précises, permettant de couper un ADN où l’on veut pour supprimer ou ajouter des segments. Les partisans des NTG disent avec malice :
(a) Il est impossible de prouver que les plantes obtenues par les NTG ne sont pas naturelles.
Et ils en déduisent
(b) On peut faire comme si les plantes obtenues par NTG étaient naturelles.
Or ce n’est pas parce qu’il y a du hasard dans l’évolution que pour autant l’évolution peut aller n’importe où. Comme expliqué plus haut, on ne connaitra qu’une trajectoire qui, dans les cas usuels – transient ou en archipel – ne passera pas partout.
Il est vrai que la science ne donne pas, sauf sous des hypothèses de modélisation simplificatrices, les limites exactes des ilots de l’archipel évolutif.
Il y a néanmoins un saut de cette imprécision de l’état des connaissances scientifiques à un principe qui aurait valeur juridique. La vie courante nous montre énormément de vérités certaines dont les contours ne sont pas quantifiés ni quantifiables. Combien de temps peut-on jeûner ? etc. En l’occurrence lorsqu’on est dans le cas « d’un seul tenant » comme le supposent implicitement les allégations (a) et (b), les trajectoires ne vont pas pour autant partout, certains phénotypes ne sont pas atteints.[90]
L’assertion (b) peut concerner deux registres différents. D’abord la référence pour la possibilité « on peut faire comme si » peut porter sur les conséquences sur le phénotype et sur l’environnement, disons sur l’écophénotype. Et à ce niveau les portes de tous les dangers restent grand-ouvertes. On ne sait rien des caractères invasifs qui peuvent apparaître, des susceptibilités à certaines maladies ou parasites. Les dommages faits à l’environnement seront probablement complexes, multifactoriels et traités uniformément pas l’outil commode du marché.
En second lieu la référence peut porter sur le « on » c’est-à-dire sur le sujet. Car il y a bien quelqu’un qui sait si la plante obtenue est naturelle ou pas : le biologiste qui a conduit l’expérience. Sous ce jour la proposition (b) signifie : aucun système juridique ne pourra m’opposer des faits scientifiques pour prouver que j’ai fait un OGM. Ainsi l’assertion (b) veut dire que tout ce que le droit ne peut pas récuser scientifiquement, est autorisé, et que l’expérimentateur est protégé de toute responsabilité. L’énoncé (b) est d’une brutalité inouïe. Il protège la dissimulation, sur la seule justification que le secret permet le profit. Il tourne le dos à toute prudence.
Selon la règle actuellement à l’étude (cf. ci-dessous) si le nombre de bases modifiées par NTG est faible, avec des coupures et insertions grâce à CRISPR par exemple, ces NTG sont acceptables. D’après (a) et (b) la nature pourrait donner des plantes insensibles au Glyphosate ou au Dicamba. Or c’est contraire à l’un des principes soulignés par Barry Commoner dès les années 1960 selon lequel la nature ne se protège pas contre des molécules qu’elle ne rencontre pas, raison pour laquelle ces désherbants sont très efficaces et que le DDT a été interdit.
Les lobbies tentent de faire valoir que la science objective se fonde sur les caractéristiques de la matière et non sur le procédé pour l’obtenir. Un diamant est un diamant qu’il soit artificiel ou naturel. C’est là encore du scientisme chaussé de gros sabots. La matière est aujourd’hui constituée d’abstractions, le béton lui-même est plein d’espaces de Banach. Dès lors qu’il y a de l’incertitude, la valeur juridique d’une assertion est sociale. L’OGM est artificiel et considéré OGM pour cette raison. Le biologiste qui en est à l’origine le sait. Valider a priori une zone où l’imitation est assez ressemblante pour être juridiquement acceptée pour du vrai, c’est accepter tous les simulacres faits par l’intelligence artificielle.
Les assertions (a) et (b), prises dans cette formulation générale, permettent juridiquement de disculper toute responsabilité liée à de l’innovation génomique. Prises à la lettre elles justifieraient qu’un être vivant avec un ADN constitué avec d’autres bases que les quatre classiques, serait à considérer comme naturel, même chose pour les licornes ou les chevaux ailés comme Pégase. Ce serait un retour en arrière du point de vue du fondement social du droit parce que plusieurs procès même aux États-Unis ont obligé les firmes à payer des dommages en raison de leurs responsabilités sur la santé.[91]
Il y a donc, même pour les partisans des OGM, quelque chose qui ne va pas avec une législation qui se fonderait sur les principes (a) et (b). Comme c’est sans limite vers le n’importe quoi, on irait tout droit vers des difficultés que personne ne veut assumer a priori. D’autant plus que l’idée fait son chemin que l’avenir pour être durable doit institutionnaliser de la transparence et de la traçabilité sur les responsabilités.
Aussi, comme nous allons le voir, la Commission européenne a compris la nécessité de borner par le haut la liberté de décréter « non OGM » les produits issus des NTG.
Le projet de règlementation européenne.
La Commission européenne a été convaincue par les lobbies et par ses propres services notamment le Joint Research Centre qu’il était souhaitable de ne pas classer les êtres vivants obtenus par les NTG parmi les OGM de sorte que la réglementation des OGM en Europe (traçabilité, etc.) ne s’appliquerait pas à ce qu’on obtient avec ces nouvelles techniques.[92]
La norme propose de tolérer comme non OGM les résultats d’une NTG pourvu que celle-ci ne s’éloigne pas trop des méthodes traditionnelles utilisées par les éleveurs. Et pour introduire la variabilité naturelle d’une population classique à laquelle est comparée une innovation obtenue par NTG, le projet parle de « pool génétique de l’obtenteur ». Cette notion est très vague, et certainement difficile à rendre opposable.
Mais la forme du projet de norme est encore plus importante que sa sémantique. Car en posant que la nouvelle technique génomique peut être considérée comme non-OGM dès lors qu’elle n’a employé que 20 fois l’une des cinq règles énoncées, la norme se pose d’emblée comme arbitraire. En effet aucun argument scientifique, ni théorique ni empirique, ne peut fonder cette contrainte de 20 appels aux règles au lieu de 10 ou 50.
Or cette caractéristique formelle a une conséquence politique majeure. L’Europe est sous le regard du monde entier, elle est une vieille civilisation, une des plus avancées dans les sciences, elle avait adopté une conduite exemplaire lors de la COP3 de Kyoto en 1997. Si l’Europe fonde son éthique biologique sur des règles arbitraires quelle instance aura l’autorité pour invalider des normes plus laxistes, présentant un arbitraire analogue, telles que ne manqueront pas d’en construire la Chine, l’Inde ou le Brésil. L’éthique européenne ne peut oublier le facteur d’exemplarité. Elle ne peut fonder son droit sur la légitimation des faussaires. Pour l’instant la science ne connaît pas bien les ilots d’archipel des espèces supérieures, peut-être cela se précisera-t-il dans l’avenir.
C’est d’autant plus important qu’en l’occurrence, plus de laxisme signifie plus de facilités à l’agriculture industrielle et donc un avantage commercial. Les assertions polémiques (a) et (b), dans un cadre où les NTG sont définies avec une certaine dose d’arbitraire, poussent à la compétition et cette émulation aura pour conséquence une guerre plus violente contre la nature. En matière de norme il y a souvent des seuils de tolérance à poser et la bonne démarche consiste à évaluer les risques en amplitude et en probabilité, et à tenir à jour ces données. Sachant qu’on ne peut atteindre la sécurité absolue, les ponts, par exemple, sont calculés avec une marge de sécurité qui a une certaine part d’arbitraire. Seulement le problème est fondamentalement différent. Le risque du pont est local, tandis qu’ici l’avantage du laxisme est local mais les conséquences d’un dommage peuvent être pour les autres, les consommateurs, et même la nature dans son ensemble.
D’ailleurs, sans machiavélisme, cet arbitraire est si criant, que l’on peut raisonnablement suspecter que les auteurs du projet de la Commission savent que cette norme, justement parce qu’elle est arbitraire, sera dépassée, remplacée de fait par des normes plus laxistes. Il est vraisemblable que les inventeurs de ce projet cynique voient l’artificialisation de la nature et la victoire du profit sur l’éthique kantienne[93] comme inéluctables.
Ils ne seraient pas les premiers à défendre ce point de vue. Des universitaires américains décomplexés affichaient déjà il y a vingt ans que l’avenir étaient à ceux qui osent toutes les éventualités de la biologie :
Les débats éthiques sont comme des pierres dans un ruisseau. L’eau les contourne. Vous n’avez pas vu de technologies techniques biologiques bloquées pendant une semaine par l’un ou l’autre de ces débats.[94]
Aujourd’hui, la science est le seul jeu dans la cité.[95]
et à propos des recherches qui pourraient encore les rendre hésitants :
Vous n’avez pas besoin de tergiverser, vous avez largement gagné ! [96]
Une telle arrogance n’est d’ailleurs pas propre aux universitaires américains. En France, il est sûr qu’on a fait payer à Grothendieck sa critique de la science comme s’il avait blasphémé. En mars 1972 le mathématicien Philippe Courrège (1932-2024) directeur de recherche au CNRS écrivit à Alexandre Grothendieck pour lui faire comprendre pourquoi il ne soutenait pas sa candidature. Dans cette longue missive, d’un scientisme définitif, Courrège expliquait que la « nouvelle nature » conçue grâce à la biologie moléculaire « avait déjà supplanté l’ancienne ».[97]
On ne peut envisager d’horizon vivable que par la construction d’une éthique environnementale qui vaille pour tout le monde. Contrairement au scientisme qui induit l’élitisme ainsi que le soulignait Grothendieck, la référence collective ramène nécessairement à la morale kantienne qui trouve une nouvelle actualité juridique maintenant que le comportement de chacun se répercute sur le cadre de vie.
Les projets tarabiscotés de règlements en discussion à Bruxelles dissimulent mal le fait que la Commission européenne a peur d’autoriser les NTG comme non OGM. Et elle a raison d’avoir peur. Car la proximité entre deux ADN par les 20 appels aux 5 règles n’a aucun sens dans le domaine combinatoire. Certaines maladies graves tiennent à un seul triplet de 3 bases. La règlementation doit viser l’éthique kantienne et ne peut s’appuyer que sur la connaissance in situ de l’écophénotype.[98]
Ce chapitre peut être résumé d’une seule phrase :
Remplacer ce que la science ne sait pas par du hasard, est la plus grosse faute que le scientisme est en train de faire faire à la biologie.
Notons qu’une erreur
similaire avait déjà été faite il y a 250 ans, à une époque où le calcul des
probabilités impressionnait l’esprit des savants, et où l’on surestimait sa
portée, Buffon avait proposé une morale fondée sur les probabilités qui nous
fait sourire aujourd’hui. Elle consistait à négliger les risques dont la
probabilité est plus petite que celle de mourir demain d’après les tables de
mortalité.[99] Il est
curieux qu’un esprit fin comme Buffon ait pu souscrire à une idée aussi
simpliste. C’est révélateur des thèses que peuvent avancer les savants en
situation d’irresponsabilité.
4. La valeur et le n’importe quoi
On définit généralement le scientisme comme la doctrine apparue au 19ème siècle selon laquelle la science est la seule connaissance véritable du monde à l’exclusion de toute révélation religieuse ou ontologie spiritualiste. Pour certains cela concerne exclusivement la science expérimentale. Ils considèrent que les théories peuvent nécessiter des validations avant d’être considérées comme scientifiques. Souvent le scientisme va plus loin en prétendant que le progrès de la science fera la clarté sur toute question posée en termes mesurables.
Au 20ème siècle l’usage de représentations probabilistes en physique a apporté à cette doctrine un certain trouble marqué par de nombreux débats sur l’indéterminisme de la mécanique quantique avec l’argument célèbre d’Einstein « Gott würfelt nicht » (1926). En fait cette difficulté s’est trouvée résorbée parce que la science du scientisme suit la vision la plus courante, elle est nomologique. Elle est faite de lois à l’image de la discipline reine, la physique, et rien n’empêche que parmi ces lois figurent des lois de probabilité.
Cette inclusion des probabilités dans la science de référence fut tout à fait précieuse pour accueillir, après la seconde guerre mondiale, la biologie moléculaire avec sa portée immense sur la description du vivant par la découverte de la double hélice au début des années 1950. Les biologistes se trouvaient justement, pour l’étude des êtres vivants, en présence de nombreuses interprétations religieuses ou simplement métaphysiques, souvent anciennes, parfois récentes apparues après la validation de l’hypothèse atomique et le développement de la physique statistique (formule de Boltzmann 1875). Aussi ont-ils, pour la plupart, à la suite de Jacques Monod, adopté sans réserve la position très simple qui consiste à conserver le label de science nomologique pour la biologie dans son ensemble sans se demander réellement si ce choix était le seul pertinent ni s’il était possible de le valider expérimentalement.
La question clé était de savoir quelle vision était acceptable pour penser l’évolution. Elle a, en effet, des répercussions considérables. Dès lors que sur cette planète il y a évolution, l’homme peut-il viser, pour la vie ensemble, une harmonie stationnaire ou cyclique ? Le progrès technique est-il la seule solution ? La complexité des forêts primaires fait réfléchir. Le fond du problème est de penser les pas qui sont faits dans l’inconnu.
Pour garder le principe nomologique on a adopté le dogme que c’est le Hasard qui règne sur l’évolution naturelle, ce qui simplifie beaucoup de choses. Il y a des nécessités mais les changements de direction, les nouveautés sont aléatoires. C’est la nouvelle foi du néo-scientisme stochastique. Nous avons le droit, par la bénédiction du dieu Hasard, de faire des essais aléatoires avec la combinatoire biologique. Nous sommes encouragés à le faire, non pas parce que dieu nous aime et nous pardonne nos fautes, mais parce que le dieu Hasard a la bonté de nous offrir des opportunités.Il nous dit qu’il y a de nouvelles natures à essayer.
Notons que ce Hasard est sans domaine explicite précis. Il règne sur le matériel, le spirituel, sur les idées, sur la nouveauté scientifique, sur tout ce qui concerne le progrès. C’est un Hasard dont le domaine lui-même est incertain, dans le champ indescriptible de l’éventuel. Il s’accorde bien avec le positivisme car il est opposé à tout interprétation signifiante, religieuse ou autres, le Hasard innove tout par hasard.
Cette solution facile rencontre cependant deux difficultés. La première est que les êtres vivants sont en interaction dans leur évolution et que de cette évolution nous n’aurons jamais qu’une seule trajectoire. Même s’il y a du hasard dans l’évolution, cet aléa peut fort bien ne pas être accessible à l’expérience, faute de pouvoir répéter les conditions expérimentales. C’est comme si on disait que l’Histoire était régie par le hasard, on aurait bien du mal à le mesurer ce hasard. En plus il existe plusieurs formes de répartitions désordonnées dont certaines ne vérifient pas la totalité des règles du calcul des probabilités. Le problème le plus intéressant est celui des corrélations et des biais entre ce que vivent les populations d’êtres vivants et leur progéniture.[100]
La seconde difficulté est à mes yeux capitale. Comme je l’ai fait comprendre au chapitre 2, la synthèse moléculaire — comme la démonstration de théorèmes mathématiques — ne relève pas de la connaissance nomologique. Les molécules des protéines synthétisées par les êtres vivants doivent être considérées comme des trouvailles. Il n’y a pas de lois qui les fournit à partir des phénotypes. Le dieu Hasard est à ranger lui aussi parmi les superstitions. Il est une facilité théorique très loin de la complexité réelle à l’œuvre dans l’évolution. Et de la même façon que le Dieu des religions monothéistes nous encourage par notre confiance en sa puissance, le dieu Hasard nous offre toute la nature à modifier, librement, comme un plaisir que nous humains avons le privilège d’avoir compris.
En m’appuyant sur cette critique fondamentale, je propose, dans ce chapitre, de prendre la question concrètement, à partir de la trilogie savoir-progrès-profit. Ce triplet ressemble, en effet, à un nœud borroméen, Dès qu’on écarte l’une de ces dimensions, la relation des deux autres se relâche parce qu’une explication manque.
Pour penser l’avenir on doit envisager nécessairement de restreindre la liberté du dieu Hasard à des progrès socialement, économiquement, et politiquement possibles. Concernant ces changements ou bien on mise sur les contraintes environnementales pour amender le capitalisme, mais cela n’a pas du tout donné les résultats escomptés ces cinquante dernières années, ou bien on tente de décrire des effets spontanés du libéralisme économique qui rendent apparemment « naturelles » les orientations actuelles, et qui peuvent expliquer les faiblesses de la gouvernance sur cette question de la survie. Mon ambition est simplement ici d’esquisser des tendances qui dans nos sociétés libérales préfigurent des formes de scientisme, et par là, peut-être, contribuer à les prévenir.
Les marchés financiers à terme
La critique marxiste des marchés financiers est classique : elle dénonce qu’ils sont l’expression même de la logique capitaliste permettant des bénéfices sans travail et sans soucis des salariés. La critique de gauche, réformiste, mise, elle, sur des modifications des règles des marchés avec des taxes sur les achats et les ventes pour pénaliser la spéculation. Un fait fondamental est que ces points de vue ont été pris de court par un tournant radical, insuffisamment souligné, qui eut un rôle majeur dans la gouvernance de l’activité humaine vis à vis de l’environnement : la mise en place des marchés à terme. Je vais indiquer leur principe de fonctionnement et montrer leur rôle capital pour subsidiariser toutes les orientations de l’activité humaine qui ne soient pas dirigées vers la détection de profits. Car ils ont pour conséquence de rendre impossible une vraie politique environnementale.
C’est dans la seconde moitié des années 1970 qu’eut lieu cette prise de pouvoir extraordinairement intelligente, si ce n’est que ses objectifs sont à courte vue. Il se trouve en plus que cet épisode économique est un exemple très intéressant de relation entre la science et le profit.
Dans les années 1950 les économistes Kenneth Arrow et Gérard Debreu s’étaient rendu compte que la puissance de la logique de marché n’était pas complètement exploitée dans l’organisation des marchés financiers telle qu’ils fonctionnaient à l’époque. Leur point de départ fut une extension du théorème de l’équilibre au cas où il y a des « biens contingents » c’est-à-dire dépendant des incertitudes du marché futur.[101] Pour rendre opérationnelles ces idées Arrow suggéra la création de marchés dérivés, c’est-à-dire de marchés dans lesquels on peut acheter et vendre des contrats futurs incertains. Ces travaux constituèrent une avancée historique fondamentale comme justification et déclenchement effectif des mises en place des marchés financiers organisés avec leurs produits dérivés.
Il faut bien mesurer la magie du théorème démontré par Arrow et Debreu : on pouvait traiter les biens contingents comme s’ils étaient déterministes et la même démonstration mathématique s’appliquait exactement et montrait l’équilibre. Mais l’enjeu social était absolument révolutionnaire : on n’avait plus besoin de faire du calcul des probabilités pour évaluer l’espérance aujourd’hui du prix futur. Debreu écrit « Cette nouvelle définition d’une marchandise nous permet d’obtenir une théorie du cas incertain, libre de tout concept de probabilité, et formellement identique à la théorie du cas certain.« [102]
En fait, cela voulait dire que l’opinion des acteurs sur les marchés financiers était la meilleure prospective possible. On n’avait pas besoin des ingénieurs qui expertisaient des projets d’entreprise pour les banques. Les marchés disaient tout.
Il fallut une vingtaine d’années pour que les intervenants sur les marchés, banques, financiers d’entreprise, traders, soient convaincus par ces idées, craignant que ces nouvelles prérogatives qui leur étaient données n’entraînent des instabilités. C’est un article de 1973 de Fischer Black et Myron Scholes qui emporta la conviction générale en montrant que le prix juste d’un bien contingent pouvait être déterminé par un suivi judicieux du marché des biens ordinaires pourvu que des hypothèses raisonnables soient vérifiées.
Cet article, rigoureux d’un point de vue scientifique, supposait que le cours d’un bien était un processus mathématique particulier mais on comprenait que l’argument serait encore valable pour des processus beaucoup plus généraux pourvu qu’on modifie ce qu’il convient. Des résultats de recherches théoriques récentes (la théorie de l’intégration stochastique) s’invitaient en finance. L’article de Black et Scholes était le début de la Théorie Mathématique de l’Arbitrage. Cette théorie ne dit pas comment trouver des arbitrages, c’est-à-dire comment spéculer, c’est au contraire une théorie qui décrit des marchés où aucun arbitrage, au sens de profit sans risque, n’est possible.
L’idée qu’un juste prix est celui où ni le vendeur ni l’acheteur ne peut faire un profit sans risque remonte à la naissance des probabilités subjectives (Ramsey, De Finetti, Savage, etc.), mais la révolution Black-Scholes vient du langage mathématique qui fait son irruption en finance. Ce fut la découverte de Kiyoshi Itō après la seconde guerre mondiale d’un calcul différentiel et intégral particulier permettant d’intégrer une fonction aléatoire non anticipante par rapport à un processus aléatoire, c’est le calcul d’Itō utilisé par tous les traders aujourd’hui.
Lorsque Itō reçu le prix Gauss en 2006 il se déclara tout à fait surpris que ses travaux aient pu servir à la finance. C’était à Kyoto, il se trouve que j’y assistais, et je me souviens qu’il a montré un malaise très net à ce sujet. Le cadre découvert par Itō a maintenant été considérablement étendu.
L’intégrale stochastique, sous la forme du calcul d’Ito, est antérieure aux idées de Black-Scholes. Les mathématiques étaient là, développées pour des raisons qui n’avaient presque rien à voir avec l’économie, et c’est ensuite qu’elles furent nourries de significations en termes de gestion de portefeuille.
D’un point de vue épistémologique, c’est-à-dire en considérant l’Histoire des connaissances et des pratiques, ce serait une erreur de penser que c’est la finance qui est active, qui mène le jeu, et que les mathématiques ne font que suivre, comme beaucoup d’activités humaines, parce qu’elles sont influencées par la puissance des forces du marché. Les choses sont plus complexes et le cas des mathématiques financières a des spécificités inattendues : on peut dire que ce sont les mathématiques qui tirent à elles la finance et la transforment pour qu’elle obéisse mieux à la pensée mathématique. Comment cela ?
Les marchés financiers sont spéculatifs, en désignant simplement par ce terme le fait que les intervenants peuvent y acheter ou vendre, quand ils veulent, les quantités qu’ils veulent ou presque. Alors le simple fait que la spéculation – c’est-à-dire l’activité d’essayer de faire du profit en achetant et en vendant à des moments propices – soit devenue une activité mondiale très professionnelle utilisant toutes les ressources des statistiques, de l’apprentissage, et de l’intelligence artificielle, a pour conséquence que les profits sans risque par spéculation sont très difficiles sur les marchés financiers, et de plus en plus difficiles. De sorte que les cours des marchés eux-mêmes se configurent spontanément sous cette pression progressive suivant des modèles où les profits sans risques sont impossibles, c’est-à-dire où la théorie mathématique de l’arbitrage s’applique.[103]
A partir de la fin des années 1970 les places financières du monde entier ouvrirent des marchés à terme, les marchés dérivés. Les acteurs financiers, les parties prenantes, les fonds de placements, ont pris le pouvoir en définissant entre eux la « meilleure » prospective qui s’imposait à toutes les entreprises industrielles ou agricole par les cotations des produits à terme sur les matières premières. Cette nouvelle gouvernance – qui utilisait des concepts très fins des mathématiques récentes – montrait que le capitalisme était assez ouvert pour se servir de la science dans son fonctionnement propre.
Actuellement c’est ce système qui gouverne le monde. Une gouvernance très spéciale fondée sur la rentabilité financière et non sur l’intérêt collectif demandé par l’écologie. Ce système décisionnel a la vertu de trancher sur toutes les questions, y compris celles dont la science n’a pas la réponse. Laisser faire le marché apporte une solution à tous les problèmes, même multifactoriels, même futurs. C’est l’extension du théorème de l’équilibre aux biens contingents.
La référence au marché permet de gouverner comme si le marché savait. Mais il ne s’agit pourtant pas d’un savoir. Il n’y a pas fabrication de connaissance, il s’agit simplement d’un procédé de choix. Et c’est là que le bât blesse. La réponse des marchés qui domine l’économie mondiale est toujours floue. C’est le phénomène incontournable de la volatilité, c’est-à-dire de l’agitation des cours. Plus il y a de doutes, d’incertitude parmi les acteurs économiques, plus les cours s’agitent, et plus les produits financiers qui jouent le rôle d’assurance coûtent cher. Les marchés financiers indiquent très mal la rareté des ressources et n’expriment pas les indicateurs environnementaux.
On peut dire que les marchés financiers remplacent l’ignorance scientifique par de la volatilité, ils tendent ainsi à rendre les préconisations du GIEC inutiles et les remplacent par les agences de notation. Les marchés financiers à terme ont démuni les États de la majeure part de leur pouvoir de gouvernance sur l’environnement.
Néanmoins ceci ne suffit pas à expliquer la dynamique d’ensemble. Si nous reprenons notre trilogie, savoir-progrès-profit, il est incontestable qu’il y a des avancées de la connaissance, le savoir progresse. Comment cela se traduit-il en profit ? Un des mécanismes de fabrication de valeur est au cœur du capitalisme contemporain.
L’opportunisme institutionnel
Le concept d’opportunisme que nous allons utiliser est tiré de la biologie pour décrire l’évolution du vivant. Les naturalistes parlent d’opportunisme dans les cas où la nature semble fonctionner comme les artistes récupérateurs qui se servent de ce qu’ils trouvent sous la main pour réaliser leurs œuvres.
Ainsi l’œil chez les vertébrés est constitué de corps transparents qui forment une lentille et un écran, et les protéines de ces substances, différentes suivant les espèces, se retrouvent dans d’autres parties du corps de l’animal, comme si la nature avait utilisé ce qui était à disposition. Parler d’opportunisme est ici purement descriptif et non explicatif, car le processus évolutif pour améliorer la formation de l’œil, à partir d’une situation où l’œil ne voit pas, reste assez énigmatique.[104]
Un autre exemple souvent cité est le cas de la moule perlière de nos rivières Margaritifera margaritifera qui trouve le moyen de coloniser toute la rivière alors qu’elle ne peut pas se déplacer vers l’amont à l’âge adulte. Après fécondation les jeunes bivalves s’accrochent aux branchies de certains poissons, truites ou saumons, qui les remontent et permettent à l’espèce de rester dans ce biotope.
Les exemples sont nombreux. Ce phénomène est certainement lié à la passionnante question des rapports entre la plasticité développementale et les modifications du génome que j’effleure dans un précédent essai.[105]
Nous pouvons nous servir de ce concept pour qualifier une articulation entre le progrès scientifique et la valeur d’usage en économie libérale comme un idéal-type en quelque sorte. C’est l’opportunisme comme contrat social.
Sa première caractéristique est un décalage temporel, parfois significatif, entre découverte théorique et usage industriel ou commercial. Je me souviens d’un collègue spécialiste de rhéologie qui avait des flacons sur l’étagère de son bureau avec différents cristaux liquides, ces produits qui ont à la fois des propriétés de solides et de liquides, dont on ne voyait guère à quoi cela pouvait bien servir. Ce n’est que nettement plus tard qu’on pensa à s’en servir pour supprimer les engrenages dans les affichages de montres.
On peut penser aussi aux travaux de mécanique quantique de Léon Brillouin appliquées longtemps après aux fibres optiques.
Nous avons déjà évoqué le cas de l’intégrale d’Ito et des mathématiques financières. Là le décalage est d’une vingtaine d’années. On peut certes considérer, du point de vue des mathématiques, qu’après l’intégrale de Riemann, l’intégrale de Lebesgue et l’intégrale de Wiener, inventer encore une nouvelle intégrale était forcément un monument important dans le paysage qui allait faire parler de lui. Néanmoins le calcul d’Ito, qui fait intervenir la dérivée seconde dans les changements de variables de cette intégrale, pouvait faire penser qu’elle ne trouverait application que dans des mécaniques rationnelles très exotiques. Or elle est au cœur de l’institution dominante de l’économie aujourd’hui.
Par rapport à la recherche scientifique, l’économie apporte des intentions, et lorsqu’on considère les avancées scientifiques à travers cette grille de finalités, il apparaît de la valeur possible, donc des échanges et du profit. Cependant le progrès de la connaissance scientifique en lui-même n’est que peu influencé par des intentions économiques car il est canalisé par des questions internes aux disciplines, par des imperfections du corpus qui sont soulignées par les grands spécialistes et sont des motivations fortes des chercheurs.
Dans un intéressant article déjà mentionné,[106] transcription d’une émission sur Radio Free Europe en 1970-71, donc en même temps que se crée le groupe Survivre… et vivre, Edward Shils, professeur de sociologie à l’université de Chicago, explique qu’on peut espérer que les savants et les techniciens feront preuve de responsabilité pour évaluer les bienfaits et aussi les méfaits de leurs découvertes ou inventions, mais
il serait faux de croire qu’ils y arriveront tout seuls et ce serait une erreur de leur en laisser le pouvoir exclusif.
Il rejoint la critique de Grothendieck sur l’élitisme et le scientisme, à son avis
le vrai danger est l’aura de surpuissance, d’indomptabilité et de sur-confiance en soi des scientifiques et des techniciens professionnels, le mythe qui en fait les détenteurs d’une connaissance inaccessible au profane […] Depuis le 20ème siècle surtout, les techniciens sont considérés comme les bienfaiteurs de l’humanité. La doctrine très répandue du progrès a donné une importance capitale à la technique.
Shils voit l’idée de table rase que l’on trouve dans le marxisme ou l’anarchisme comme faisant partie d’une vision de l’existence dont le scientisme est un élément majeur. L’opportunisme comme contrat social rend compte de la relation entre le social et l’évolution historique de la science sans faire référence exclusive à la vision moderne ni à la vision post-moderne de la connaissance. Au lieu de dire comme les post-modernes du début de la sociologie des sciences (Serge Moscovici, Bruno Latour, David Bloor) que la société peut changer les contenus de connaissance y compris la rationalité (Latour, Bloor) on souligne au contraire l’autonomisation morale de la recherche et l’utilisation de cette liberté créative par les intérêts économiques des parties prenantes. On revient non pas à la vision moderne classique mais à une lecture avec néanmoins une coupure, un partage de rôles dans la société : d’un côté les scientifiques (à qui on va faire référence juridiquement en les séparant des citoyens) et de l’autre les valorisateurs qui regardent par-dessus l’épaule du créatif pour envisager une valeur économique y compris militaire sans trop perturber la recherche par l’attrait du gain qui risquerait de faire perdre la fécondité propre à la discipline.
Devant les difficultés de faire valoir les conséquences sociales du progrès on a trop facilement misé sur l’interdisciplinarité pour surmonter tous les obstacles. En fait historiquement l’interdisciplinarité n’a guère montré son efficience,[107] elle est surtout – comme l’explication multifactorielle – un moyen de faire résoudre les problèmes par le marché, toujours par le merveilleux théorème de l’équilibre qui fournit un prix.
L’innocence fabriquée du chercheur est une absolution morale qui lui apporte évidemment une sérénité tout à fait précieuse pour son activité de recherche, et qui permet en plus à l’industrie d’innover, talent qu’elle n’a pas par elle-même en raison des coûts qu’elle a à gérer pour toutes les initiatives qu’elle prend.
Sur ce modèle le capitalisme a instauré un second partage. L’actionnaire individuel n’est pas responsable de ce que les entreprises font de son argent, il a une complète immunité juridique.
Ces deux niveaux où opère une forme d’opportunisme correspondent avec ce que le sociologue Ulrich Beck avait pointé dans La société du risque :
Une part seulement des compétences décisionnelles qui structurent la société sont réunies dans le système politique et soumises aux principes de démocratie parlementaire. Une autre part est écartée des règles d’inspection et de justification publiques et reléguée à la liberté de l’investissement des entreprises et à la liberté de la recherche scientifique.[108]
Ulrich Beck ajoute ainsi une critique aux caractéristiques classiques du capitalisme, celle de Marx fondée sur la différence entre le marché de l’emploi et le marché des biens d’où la plus-value, celle de Max Weber avec le réinvestissement des profits favorisé par l’éthique protestante des puritains. Sur la façon de prendre des décisions Beck souligne la liberté des actionnaires et celle de la recherche scientifique qui échappent aux principes de la démocratie parlementaire.
La biologie de synthèse vient apporter encore un opportunisme à un autre niveau, celui de la combinatoire moléculaire.
La démarche scientifique appliquée, orientée vers la technique, était menée jusqu’au milieu du 20ème siècle sous la bannière des mots clés précision et approximation, il s’agit dorénavant de nombres entiers. Les entiers interviennent dans les valences des atomes et dans la configuration spatiale des molécules, qui s’apparente à de la cristallisation. On voit ainsi l’essence différente des sciences combinatoires : l’ignorance et le savoir ne sont pas dans la même interaction. L’amélioration de la connaissance ne procède pas en raffinant un modèle grossier, elle sort du registre précision-approximation. Les phénomènes sont particuliers. La nouveauté est abondante et fortuite. Cela n’interdit pas qu’il y ait, en plus, des lois, mais alors très circonstanciées.
La biologie de synthèse rompt avec le cadre habituel de l’empirisme. Obtenir une molécule ayant des effets biologiques, souhaités a priori, n’a rien d’évident. L’être même de la molécule réside aussi dans les propriétés chimiques des substances des êtres vivants où elle va être placée. Cette situation épistémologique particulière, due à la combinatoire, donne à la découverte d’une molécule nouvelle une valeur fondamentalement dépendante du contexte. La molécule est comme un nouvel individu dans une société humaine, avec des compétences et un réseau de relations professionnelles. Les molécules ne sont pas des objets comme la philosophie aimait en considérer dans le passé, elles sont actives, et les limites de leurs interactions avec le contexte sont le plus souvent mal connues.
Les chercheurs ont tendance naturellement à réclamer une liberté absolue pour toute investigation : essayer pour voir ce que ça fait. Seulement il y a changement de paradigme, il ne s’agit plus d’objets, ce qui se passe dans la coupelle, dans le dispositif du laboratoire ne vaut que pour ce dispositif.[109]
Cette forme d’opportunisme moléculaire accorde aux chercheurs en biologie une bénédiction a priori sur toutes les tentatives combinatoires qu’ils pourront essayer, alors qu’ils ne maîtrisent pas la réactivité des produits qu’ils synthétisent sur l’ensemble du vivant.
Il est clair que ce type d’organisation sociale, muni de trois types d’opportunisme institutionalisé, des valorisateurs parmi les découvertes, des actionnaires parmi les producteurs, et des biologistes parmi les molécules, fonctionne sous la croyance que tout s’arrangera finalement sans que l’on ait besoin de penser ce « progrès » dans un cadre rationnel.
Dans le cas de l’opportunisme des actionnaires, on postule une bonne santé perpétuelle de l’économie pilotée par l’intérêt financier indépendamment des contraintes collectives de la biosphère. Or ce qui pourrait nous faire croire au bien-fondé de cette confiance, au-delà de tout argument religieux, est que ces pratiques ressemblent à l’empirisme qui a si bien engendré le progrès technique jusqu’à présent. Mais cette ressemblance est superficielle. La combinatoire est d’un ordre cognitif différent. Les techniques de gain de fonction pour anticiper d’éventuels variants, de forçage génétique (gene drive) et autres, dans un contexte géopolitique violent, nécessitent des contrôles de confinement par une sagesse collective qui pour l’instant est absente.
L’opportunisme institué est un formidable moteur pour aller toujours plus vers l’artificiel. De ses trois formes, l’opportunisme moléculaire est le plus nouveau et de loin le plus créatif. La biologie moléculaire fascine et produit un nombre de publications proprement vertigineux. Une foule mondiale de chercheurs – particulièrement dans le monde anglo-saxon influencé par l’utilitarisme et le pragmatisme, mais aussi en Chine marquée par le matérialisme marxiste – s’est constituée de passionnés par cette nouvelle fécondité moléculaire, et qui place cette envie au-dessus des valeurs morales des religions et même des civilisations car ils ont l’impression sentimentale d’agir pour l’avenir de la « vie ».
Cette frénésie à fabriquer de la « vie nouvelle »[110] est une jouissance totalement insoupçonnée il y a seulement cinquante ans. Durant la science moderne, tant décriée, on observait la nature. Certes avec des biais sociaux dont on n’avait pas conscience. Cependant maintenant on la transforme lucidement avec des biais sociaux explicites, mais que l’on dissimule derrière le processus considéré comme pur et immaculé de la recherche combinatoire en laboratoire, et les bienfaits en perspective cachent la vérité des risques.
Or maintenant la science doit fonctionner avec de l’ignorance définitive. Si les mathématiques ont un rôle privilégié dans cette refonte de l’épistémologie, c’est simplement parce qu’en mathématiques on peut démontrer l’incomplétude. Ailleurs on ne peut que la comprendre, et par suite la prendre en compte. Le changement que cela apporte à la philosophie de la connaissance réside dans le fait que l’ignorance, qui était perçue comme un état transitoire de la civilisation sur chacun des domaines où on la rencontrait, devient une condition humaine définitive, impliquée par le processus même de la nouveauté des molécules susceptibles de prendre part au vivant.
Le travail du biologiste de synthèse qui fait des essais dans ses coupelles et s’émerveille de ses innovations est bien de l’ordre de l’opportunisme. Si une nouvelle molécule est là, elle est une trouvaille potentiellement utile pour la médecine, profitable pour le commerce, ou redoutable comme poison pour la nature ou pour faire la guerre, sans qu’on le sache a priori. La méthode « au petit bonheur la chance » récuse complètement les fondements sur lesquels la déontologie scientifique s’était construite par le passé. En tant que mathématicien, à partir de ma familiarité avec certains phénomènes combinatoires, mon rôle est de dire : Attention ! La méthode de l’opportunisme, avec ses trois niveaux, peut facilement, dans le climat de compétition que nous connaissons, exacerber la guerre à la nature et entre les hommes.
L’eugénisme en douceur
Reprenons notre trilogie borroméenne savoir-progrès-profit en approfondissant la relation entre le savoir et le progrès sous la bénédiction du profit.
L’imagination est souvent le germe initial d’une démarche scientifique. Et elle est notre arme essentielle contre les dangers à venir [111]. J’ai insisté, à la suite de Hans Jonas, sur le cas de craintes subjectives qui pouvaient, par le travail scientifique, être transformées en craintes désintéressées. Mais la démarche scientifique peut aussi naitre d’un plaisir, d’un engouement plutôt que d’une inquiétude. C’est ce qui se passe avec la biologie de synthèse. La révolution combinatoire a offert au chercheur un plaisir nouveau, fascinant qui consiste à essayer les briques du vivant pour voir ce que ça fait. Comme pour les craintes cela ne suffit pas à faire science, il faut encore savoir si l’innovation peut avoir une place dans la vie collective, ce qui peut aussi engendrer des risques [112].
Suivons la vie d’une famille ordinaire. Nous observons une réticence du public à propos des OGM. Les étiquetages ne sont pas clairs. Les plantes et les poissons OGM se répandent au-delà des zones qui leur sont en principe dédiées. Et à cause des herbicides, des pesticides, et aussi des hormones, l’alimentation bon marché est suspecte.
Quant à la pandémie covid-19, elle semble surmontée et la biologie moléculaire y a contribué en permettant l’élaboration rapide de vaccins dans les pays riches. Mais la vitesse et l’échelle de cette crise jalonnée de mutations du virus, a laissé un arrière-goût de chacun pour soi dont le bilan est la méfiance. Incontestablement le fait que le virus soit apparu en Chine à Wuhan à proximité d’un laboratoire classé BLS4, c’est-à-dire procédant à des opérations les plus dangereuses, et que ceci se soit produit un an après l’annonce de la naissance en Chine de fillettes génétiquement modifiées, tout cela nourrit la suspicion d’un accident et crée dans les familles un sentiment hostile à toutes les manipulations des apprentis sorciers de laboratoire.
La biologie de synthèse avance rapidement. Les recherches perfectionnent les techniques au-delà de ce qui est aujourd’hui vulgarisé : transgénèse consistant à apporter à un ADN un bout pris ailleurs pour tenter d’apporter avec lui les substances ou les fonctions qu’il est sensé conditionner, c’est ainsi qu’on est parvenu à faire naître une brebis fluorescente en lui apportant un gène de méduse ; mutagenèse fondée sur des mutations artificiellement provoquées avec sélection des cellules viables obtenues selon des critères de performance ; techniques de forçage génétique ou encore de gain de fonction (passage d’un germe dans des hôtes successifs avec sélection pour obtenir des mutations orientées) et autres méthodes qui sont facilitées par les nouveaux ciseaux comme CRISPR-cas9.
Pour la famille ordinaire que nous pouvons suivre dans cette réflexion, c’est plutôt la méfiance qui règne vis-à-vis de l’eugénisme en flacon, c’est-à-dire ce dont Aldous Huxley faisait le tableau dans Le meilleur des mondes. Il est certain que ce livre écrit par un descendant d’une lignée d’illustres biologistes, dont un ami de Darwin, avec l’idée de mettre une rose le long du flacon pour faire aimer les fleurs, est maintenant une peinture assez réaliste des pratiques de laboratoire. On sait en effet faire des cellules artificielles capables de se multiplier [113]. Et des chercheurs poursuivant des travaux sur l’utérus artificiel sont parvenus à faire se développer des embryons de mammifères hors du cadre naturel pendant onze jours [114].
Il semble qu’en France l’eugénisme en flacon soit généralement perçu comme un danger, une forme extrême de PMA (procréation médicalement assistée), sorte de passage à l’acte avant que la société soit capable d’en assumer la responsabilité morale. Il n’en est pas de même dans les pays anglo-saxons car ceux-ci ont une longue tradition d’eugénisme scientifique [115]. De quoi s’agit-il ? Il s’agit d’assumer politiquement la gouvernance biologique de la population. La doctrine s’appuie sur la théorie de l’évolution de Darwin pour défendre le principe « que toute personne qui est née a le droit de vivre, mais ce droit de vivre ne se convertit pas de lui-même en un droit de reproduire son espèce » énoncé par Karl Pearson[116]. D’ailleurs Darwin a écrit sur les conséquences des règles de compassion et de bienfaisance sur l’évolution de l’espèce humaine. Les pays scandinaves, les États-Unis, l’Allemagne nazie, et plusieurs autres ont mis en place des lois sévères de stérilisation. En Suède la loi fut en vigueur jusqu’en 1977. Je renvoie à l’article de Wikipédia « stérilisation contrainte » qui montre l’ampleur de ces pratiques et l’étonnant consensus qu’elles ont reçu.
Un aspect de cet eugénisme politique, sans flacon, est à noter : ses défenseurs parmi les plus renommés Francis Galton, Karl Pearson, Ronald Aylmer Fisher, étaient de grands scientifiques, non pas des praticiens moyens, mais des inventeurs talentueux qui ont apportés aux mathématiques et aux statistiques des avancées conceptuelles remarquables. Comment est-ce possible ? Serait-ce finalement qu’ils avaient raison ? Jean Rostand ne semblait pas loin de le penser.
Non, la vérité est que l’eugénisme scientifique est faible scientifiquement, il sous-estime le rôle du social, du culturel et de l’affectif dans la construction de la personnalité. Il le réduit même à néant au profit de modèles d’évolution représentés par des processus mathématiques. Le point important est que ce contexte est difficile à décrire, tout en nuances, dans le qualitatif, appréciation de valeurs et de motifs. On sait aujourd’hui que le cerveau de l’enfant, avec ses nombreuses synapses, se développe et s’organise en fonction des tâches qu’il est amené à faire et que ceci lui donne une structure qui ne se défait pas par la suite [117]. L’apprentissage du piano le fait comprendre aisément. Mais cela va beaucoup plus loin ainsi que les psychanalystes, notamment Mélanie Klein, Donald Winnicott et Françoise Dolto, l’ont montré.
Fisher par exemple, l’inventeur de l’information de Fisher, considérait que la politique française des allocations familiales était nuisible à la société car conduisant à multiplier les individus les moins doués. Ces savants, contributeurs importants à la science, assumaient une confiance en soi et montraient leur propre supériorité en s’engageant politiquement, par pragmatisme en quelque sorte. On comprend qu’ils ne soient pas suivis dans cette philosophie élitiste par notre famille ordinaire si nous la supposons représentative de l’opinion.
Portons-nous maintenant en 2050, le plus vraisemblable est que l’eugénisme en flacon aussi bien que l’eugénisme « scientifique » seront, comme c’est le cas aujourd’hui, considérés comme des excès, du moins dans les pays pratiquant une forme ou une autre de démocratie.
Évidemment il n’en est pas de même en Chine et en Corée du Nord où les considérations culturelles sur l’opinion des familles comptent peu. Il est vraisemblable que ces pays vont s’orienter aussi vite qu’ils pourront vers une forme d’eugénisme. C’est un problème préoccupant sur lequel il est difficile d’anticiper.
En revanche dans les pays avancés d’Occident où l’opinion des ménages est le carrefour des influences, la politique consistera vraisemblablement à confier à des commissions déontologiques constituées d’experts, d’élus et/ou de citoyens le soin de fixer et de faire évoluer les limites acceptables des règles juridiques concernant les eugénismes en flacon et « scientifique ».
Mais en 2050, dans ce paysage, un phénomène actuellement discret, souterrain, aura pris suffisamment d’ampleur, pour devenir un enjeu majeur de l’avenir de l’humanité.
Rappelons quelques techniques d’ores et déjà opérationnelles qui seront en développement actif dans les années à venir. Des chercheurs ont réalisé des virus destinés spécialement à certains insectes, d’autres ont expérimenté des modifications génétiques de moustiques lâchés dans la nature. En ce qui concerne l’espèce humaine plusieurs procédés existent pour arranger la progéniture. Les firmes américaines MyOme, Genomic Prediction, et Invitrogen, proposent des cartographies d’ADN à des parents, afin qu’ils puissent si la possibilité leur est laissée, sélectionner les embryons. Les comparaisons de génomes sont également proposées à des entraineurs pour recruter des candidats sportifs de haut niveau. Les techniques de sélection sont fondées principalement sur la FIV (fécondation in vitro) ou l’analyse du génome au niveau du blastomère (cellules de très jeune embryon). D’autres sociétés ou plateformes comme 23andMe, Myheritage DNA, MyOme, Genomic Prediction, Invitrogen, Easy DNA, proposent des décryptages de génomes humains sur des facteurs de risque de maladies et sur les antécédents généalogiques par région du globe [118].
Ces informations sont engrangées sur des bases de données constituées depuis les années 2000 qui s’enrichissent grâce aux questionnaires remplis bénévolement par des personnes ayant fait séquencer leur ADN. Les informations recueillies portent sur les maladies et celles des aïeux, sur la provenance géographique des ancêtres, leurs caractéristiques physiques et intellectuelles ainsi que d’autres renseignements significatifs indiquant les profils professionnels selon des techniques dites d’association pangénomique. L’outil Crispr-cas9, qui est utilisable dans certaines conditions in vivo,[119] ouvre la possibilité d’attribuer à un œuf fécondé des gènes synthétiques répertoriés d’après ces bases de données (pensons aux deux fillettes génétiquement modifiées par le biologiste He Jiankui en 2018). L’emballement pour ces services est impressionnant.
La porte s’ouvre à un eugénisme intentionnel, et non purement préventif de maladies. Un engouement naturel peut apparaître parmi les ménages qui réclameront ces possibilités comme des droits. La civilisation libérale telle que nous la connaissons aujourd’hui, toujours à chercher de nouvelles extensions des marchés, est très démunie devant de tels phénomènes qui sont capables de se propager dans les populations comme un incendie. Les journalistes, cherchant à intéresser les gens, ne manqueront pas d’évoquer les bases de données d’ADN dans des débats « équilibrés » qui seront, sans le dire, de la publicité faite à ces méthodes. L’embrasement eugéniste est le scenario le plus probable.
De surcroît les familles envisageant ces nouvelles techniques n’auront pas le sentiment de sauter dans le vide ou de contribuer à un inconnu collectif car une troupe d’intellectuels très actifs, disposant d’un fort soutien des médias, a déjà inculqué par tous les moyens d’influence une image extrêmement positive de tout ce qui concerne l’amélioration de l’individu selon des critères ressentis comme individuels. Je pense à plusieurs penseurs qui ont développé des formes de transhumanisme à la française. L’engagement de ces auteurs en vue dispense les familles de considérer leur propre comportement comme une aventure voire une déviance car une mise en perspective par une doctrine à succès les absout a priori.
Les comités éthiques aboutissent le plus souvent à des recommandations de prudence assez floues accompagnées de décisions qui laissent aller les innovations biologiques tant qu’elles ne font pas trop de vagues dans l’opinion publique. La France a choisi d’interdire chez elle certaines pratiques mais aussi de fermer les yeux si elles sont faites hors de son territoire. Aux États-Unis les discussions et les rapports de force sont complexes entre les agences fédérales, les entreprises et les scientifiques, auxquels il faut adjoindre les militaires [120]. Il y a en Amérique un consensus implicite que les décisions à prendre se situent au niveau de la sécurité pour les États-Unis, au niveau du commerce, et au niveau de la qualité du travail des chercheurs, mais que l’eugénisme n’est pas un problème en soi.
Il est certain que le diagnostic préalable de certaines maladies génétiques est une avancée qu’on doit utiliser pour éviter des situations dramatiques qui résultent de l’apparition de pathologies telles que la maladie de Tay-Sachs, la mucoviscidose, et plusieurs autres. Seulement le séquençage du génome embryonnaire apporte de fait, grâce à ces bases de données, beaucoup d’informations diverses notamment sur les caractéristiques des ascendants.
La possibilité qui existe aux États-Unis apparaîtra comme le droit de faire le mieux qu’on peut pour ses enfants. Les couples et les nouvelles familles réclameront comme une liberté personnelle d’utiliser le patrimoine génétique qui est le leur avec ses potentialités d’amélioration pour la progéniture. Ces droits et libertés trouveront d’ardents défenseurs politiques comme aujourd’hui on défend la poursuite des affaires et de la croissance vis-à-vis des restrictions énergétiques. Et les gouvernements nationaux ne seront pas plus courageux qu’ils ne le sont actuellement pour appliquer les objectifs des Cop successives. Plaçons-nous dans l’hypothèse géopolitique où les techniques de tri et d’amélioration des embryons seraient monnaie courante aux États-Unis et en Chine — processus déjà amorcé — comment un gouvernement pourrait-il défendre l’idée de laisser son peuple avec des ADN vétustes ! La compétition internationale joue le rôle du vent qui souffle sur les braises de l’incendie. Sans doute des déconvenues se produiront, des déceptions, car l’Homme ne se réduit pas à son ADN et l’importance de l’épigénèse au sens large — la matrice, l’éveil, l’apprentissage, l’éducation — est grande et mal connue. Mais l’ADN fait partie des facteurs sur lesquels il y a une propension à agir. Et les réussites feront florès sur Internet [121].
Poursuivons en nous projetant en 2080. En trente ans les familles se seront rendu compte que ces pratiques sont largement répandues et qu’elles sont la manière de prendre au sérieux le projet de faire des enfants dans la bourgeoisie. Ceux qui ne l’ont pas compris se confient au hasard, ou à la Providence, mais s’exposent à des risques de déconvenues qui peuvent être graves.
Cet eugénisme bon enfant n’est pas un eugénisme théorique, personne ne sait où il va, et en même temps tout le monde sait qu’il va vers ce qui est désiré [122]. Il peut s’orienter vers une certaine variété car l’originalité est vue comme une qualité dans certains milieux. Fondé sur un simple principe de liberté il oblige les programmes politiques de ses opposants à instaurer des règles liberticides.
L’eugénisme « scientifique » tente d’aller vers un « mieux » futur pour l’humanité, par une éthique globale, sans s’appuyer sur une religion. Comme il est constitué en doctrine, les religieux et moralistes auront des arguments pour éventuellement lutter contre cette évolution si elle réapparaît. Mais rien de tel pour l’eugénisme bon enfant. Celui-ci ne s’appuie que sur une morale individuelle, et les religions pour lesquelles le Bien consiste en comportements altruistes, généreux, à l’écoute de l’autre, dévoués, seront bien contraintes par leurs propres valeurs de prendre en compte le monde tel qu’il est et d’admettre l’eugénisme bon enfant lorsqu’il sera devenu la réalité.
Même si les goûts présentent une certaine dispersion, il paraît évident que ces nouvelles orientations de l’hérédité seront vues comme une amélioration, précisément parce qu’elles suivront la demande : baisse des maladies génétiques et hausse des aptitudes, meilleure santé, facultés intellectuelles renforcées à la fois à cause d’un meilleur terrain génétique et par la plus grande attention accordée par les parents.
Notre capitalisme va mettre en concurrence les firmes prestataires de services. Leur réputation suivra la taille et les performances de leurs big data ainsi que la liste des célébrités qui ont fait don de leur séquençage bien renseigné. [123]
Nous sommes à l’époque de la construction de consentement par l’influence. Pour n’importe quelle innovation susceptible de perturber l’environnement ou les mœurs, l’enjeu est d’abord juridique. Il s’agit que les concepts structurants et les catégories sémantiques dérivées soient tels que la nouveauté en question ne soit pas interdite. Pour cela il convient d’en promouvoir d’abord une forme circonstanciée visiblement utile et obtenir ainsi un parapluie sous lequel on pourra faire passer des versions plus dangereuses et plus rentables qui auraient été rejetées a priori.
Exemple. Des recherches intenses sont menées sur les fonctions fondamentales des plantes : croissance, résistance au stress hydrique, photosynthèse. On assiste à la mise en avant des essais sur les arbres OGM qui poussent plus vite en faisant valoir leur rôle de capture du carbone dans la lutte pour le climat et obtenir des lois autorisant un remplacement de nos anciennes forêts qui sont « n’importe quoi » par des plantations « pensées » grâce à la science ; et ce faisant constituer une batterie de brevets sur des nouvelles fonctions phénotypiques « améliorées ».
Est-ce que nos élus prennent ces annonces d’innovations bénéfiques au premier degré ? Ou bien sont-ils convertis à cette façon de faire la politique ? Ils ont l’air d’osciller entre indifférence, indignation de surface, et encouragement sincère du progrès technique. Au demeurant les techniques de fabrication de consentement fonctionnent à merveille et ne concernent pas uniquement la promotion des OGM.
L’eugénisme, durant le siècle et demi que le terme existe, a toujours été considéré comme une théorie politique pour corriger dans les sociétés humaines l’effacement de la sélection naturelle qui opère chez les animaux sauvages. L’eugénisme a aussi été prôné par des régimes totalitaires racistes et mis en œuvre par élimination massive des individus non souhaités. Mais aujourd’hui à l’époque de la fabrication du consentement, ce n’est plus en tant que doctrine que l’eugénisme est vanté aujourd’hui, ce qui se passe est différent.
Au niveau mondial un « facteur accélérateur » se situera selon toute vraisemblance lors des compétitions sportives. D’abord discrètement, comme des commentaires confidentiels sur les records de certains athlètes, puis ouvertement avec une pression exercée sur les vainqueurs qu’ils révèlent leurs ADN. Les lauréats des prix Nobels seront aussi sollicités, et si l’on en juge par la facilité à les faire signer des tribunes pour défendre la science et la technique, beaucoup ne rechigneront pas à dévoiler leur génome. Il y va du progrès !
Seulement même en 2080, il restera beaucoup de familles où la bonne façon de se marier et d’avoir le goût de bien élever les enfants reposera naturellement sur le respect des usages pour donner toutes les chances à l’harmonie du ménage. La majeure part des huit milliards d’humains ne seront pas en mesure de profiter des nouvelles techniques soit pour des raisons économiques soit pour des raisons culturelles. En revanche la facilité des moyens de communication les tiendra informés de ce qui se passe. La télévision et les réseaux sociaux se régaleront des « réussites », et les feront apparaître comme souhaitables aux yeux de ceux qui ne pourront pas en profiter.
Au point que vraisemblablement les masses populaires des pays pauvres verront ces usages des classes aisées des pays avancés comme inéluctables. Une évolution historique inexorable parce que hors de portée des gouvernements.
Cette fatalité qui déprécie, de fait, sans que cela soit son but avoué, la valeur héréditaire de populations entières va nécessairement faire naître un ressentiment profond, collectif, vengeur. L’ampleur de cette réaction peut être d’une violence extrême, les tribuns ne manqueront pas pour haranguer les foules : « ils vont voir ce que vaut notre ADN ! ». Comme en outre, de l’avis de nombreux analystes, le capitalisme globalisé pousse l’humanité vers une société de plus en plus fracturée entre pays riches et continents pauvres où, malgré la misère, la population s’accroit à un rythme jamais atteint dans l’histoire, si les égoïsmes géopolitiques perdurent, l’absence d’avenir pour ces populations de plus en plus dans l’indigence, les poussera collectivement à bout.
Certains n’hésiteront pas à ravager la Nature pour nuire à ceux qui gagnent, car ce sera probablement leur seul moyen d’action dans ce qu’ils percevront comme une guerre de survie. Pourquoi les talibans cassent-ils les vestiges historiques ? Parce qu’ils considèrent que cela affaiblit leurs ennemis. C’est vraisemblablement ce que feront les pauvres devant un avenir de détresse pour eux et leurs enfants en commençant évidemment par les grands animaux prédateurs qui sont gênants pour l’élevage. Il faut se représenter, de générations en générations, le fardeau d’une condition humaine dépassée, obsolète, bornée, sans horizon par rapport à ceux-là mêmes qui profitèrent des ressources de la planète et détraquèrent le climat. Tuer la nature est la façon la plus facile de mettre l’humanité en péril. C’est la puissance de ceux qui ne disposent pas des armes modernes.
Le rapport de mai 2019 de
la Plateforme intergouvernementale sur la biodiversité et les services
écosystémiques (IPBES) indique que la nature est soumise à une pression
croissante face à l’exploitation des terres et des ressources en particulier
dans les zones qui abritent les communautés les plus pauvres au monde. Les
peuples autochtones sont clairement des gardiens de la nature. Le rapport
souligne l’importance de les mettre à contribution, prendre en compte leurs
points de vue, leurs droits ainsi que leurs pratiques afin d’améliorer leur
qualité de vie, tout en œuvrant pour la conservation, la restauration et
l’utilisation durable de la nature.
Conclusion
Le scientisme s’est développé historiquement à partir du principe de faire davantage confiance à la science qu’aux religions. Il apparaît pourtant que les religions perdurent. Elles esquivent les critiques rationnelles en s’appuyant sur d’autres dimensions que la connaissance empirique, plus psychologiques et sociales. Le scientisme s’en trouve lui-même modifié. Le problème n’est plus le même que celui de Marcellin Berthelot ou d’Ernest Renan. La technique s’est tant développée que la question est moins aujourd’hui le partage entre la science et les croyances que de savoir s’il faut faire confiance à la technique ou à la nature. Ces deux références éthiques semblent définitivement diverger l’une de l’autre. La technique est soutenue par l’économie, et la nature, malade, mutilée, relève dès à présent du registre du soin.
La confiance à la science est en amont de cette problématique. Les savants talentueux, inventifs, ont en général une vision très positive de la construction de connaissance. Ils aiment réellement le jeu interprétatif qui conduit les enquêtes, les expériences, le choix des hypothèses avec des exigences sévères, et en contrepartie affichent souvent un net dédain pour les analogies faciles et la crédulité des béotiens. Cet enthousiasme leur fait évoquer l’avenir de la science radieusement, ils veulent transmettre leur motivation et l’expriment en préservant au mieux la rigueur de leur discipline. Cela peut aller des grandes fresques prospectives comme chez le naturaliste Ernst Haeckel[124], le chimiste Marcellin Berthelot[125] ou le physicien Jean Perrin[126], à une spiritualité eschatologique chez l’évolutionniste Pierre Teilhard de Chardin, ou au contraire vers un athéisme radical comme chez le biologiste Richard Dawkins. Cela justifiait « l’eugénisme scientifique » chez les statisticiens anglo-saxons Francis Galton, Ronald Fisher et Karl Pearson[127], mais se bornait à un respect de la science comme activité plurielle, à la fois empirique et interprétative, chez le philosophe Gaston Bachelard[128] ou l’épistémologue Jean Piaget.[129]
L’aporie du scientisme tient à ce que la science n’a pas besoin de cette sorte de bénédiction, qui n’a rien de scientifique, mais qui est chargée de conséquences politiques, pédagogiques, militaires, et aussi écologiques. Alexandre Grothendieck s’est intéressé à défaire soigneusement les liens implicites qui attachaient cette croyance à la pratique scientifique réelle dans le texte maintenant célèbre La nouvelle église universelle[130] qui demeure après cinquante ans un réquisitoire exemplaire, une accusation en règle du scientisme et d’une certaine pratique de la science et de la recherche qui le favorise.
Le contexte a son importance. Il a été évoqué dans le premier chapitre. D’abord la personnalité atypique de Grothendieck, mathématicien exceptionnel, qui, après des succès prestigieux, s’est détourné de la recherche, et s’est engagé dans le militantisme du groupe Survivre avec quelques collègues peu après Mai 68, principalement de Pierre Samuel, de Claude Chevalley et de Roger Godement. Les circonstances sont curieuses. La revue artisanale qu’ils lancent, dont paraitra une quinzaine de numéros, est très radicale, des articles de haute qualité argumentaire y sont mêlés à des sarcasmes et à des dessins cinglants d’expressivité. Quand le calme commence à revenir après les affrontements de la rue, ce groupe de mathématiciens se lancent dans la bataille alors qu’ils n’ont aucune légitimité politique.
Il y a là une énigme qui fut le motif initial du présent essai. Il est très important à cet égard de comprendre que ces mathématiciens étaient imbibés de culture logique et passionnés par la question des fondements des mathématiques. Ils organisent en août 1971 un colloque de logique sur des thèmes les plus abstraits et les plus novateurs. Cela leur donnait un recul irrévocable vis-à-vis du matérialisme un peu simpliste mais omniprésent du marxisme-léninisme. Le milieu universitaire et intellectuel était largement acquis au « matérialisme dialectique » qui prétendait fonder l’action politique sur la science. On voit que la critique du scientisme avait comme répercussion de saper la doxa progressiste commune au capitalisme et au marxisme. Néanmoins cette distanciation ne pouvait être explicitée dans les débats, elle était inaudible par le public, même universitaire. Ils ont considéré qu’il valait mieux s’engager et montrer la force de leurs convictions par la clarté des prises de position.
La clef de voûte de cette prise de recul réside dans la compréhension des résultats de logique des années 1930 et j’ai expliqué pourquoi la signification profonde de ces travaux bouleverse la vision classique de la connaissance et, du coup, porte à conséquence sur la philosophie de la biologie et de l’écologie. Cela est exposé en détail, sans technicité, ci-dessus au chapitre 2.
Je le reprends ici brièvement. Le cœur du problème des fondements des mathématiques est en premier lieu de démontrer la non-contradiction de l’arithmétique. En effet l’arithmétique fut axiomatisée à la fin du 19ème siècle et les axiomes sont d’une telle simplicité qu’on ne voit pas comment on pourrait mieux décrire les nombres entiers et leurs propriétés. D’où l’annonce faite par le grand mathématicien David Hilbert au début du 20ème siècle qu’il fallait faire vraiment la preuve que l’arithmétique était sans contradiction. C’est ce qu’on appelle le programme de Hilbert. Il préconise pour cela de considérer les énoncés du genre « identités remarquables » et de montrer que si on sait les démontrer en passant par des notions abstraites on peut simplifier les preuves et les établir par des raisonnements finitistes.
Seulement, comme tout le monde sait aujourd’hui, Kurt Gödel a démontré en 1930 qu’il était impossible de prouver la cohérence de l’arithmétique avec les moyens de l’arithmétique et donc a fortiori avec des moyens plus restreints, puis l’année suivante que la cohérence de l’arithmétique était un énoncé ni prouvable ni réfutable. L’échec du programme de Hilbert est un fait majeur dont l’importance a été mal comprise.
La plupart des commentaires en sont restés à la remarque que la démonstration de Gödel était une forme du paradoxe du menteur. Certes. Mais là n’est pas l’essentiel. C’est confondre la technique de la démonstration – un argument de point fixe – et la signification du théorème qui porte sur les limites de la formalisation. La méthode de point fixe est extrêmement courante en mathématiques. C’est ainsi qu’on résout les équations différentielles par l’itération de Picard, c’est aussi de cette façon qu’on établit le théorème de l’équilibre si fondamental en économie comme nous avons vu.
Ce qui est significatif c’est l’échec du programme de Hilbert. Et pour en saisir toute la portée épistémologique, il faut se rappeler que la méthode préconisée par Hilbert, afin de ne pas utiliser d’hypothèses superfétatoires, se rattachait au principe de pureté des méthodes. Ce principe était une règle de l’art, une bienséance si l’on veut, qui considérait préférable de démontrer un énoncé en ne se servant que des notions nécessaires à la compréhension de cet énoncé. Ce souci, ancien, venait de la très longue période durant laquelle les mathématiques n’étaient pas formalisées, où la consistance même de ce qu’était le langage mathématique n’était pas complètement clair. D’Alembert avait ressenti ce flou et parlait, pour la mécanique et les applications, de mathématiques « mixtes ». D’où une sorte de sagesse de faire le moins d’appels possibles à des hypothèses ad hoc.
Le principe était encore tellement respectable au début du 20ème siècle que David Hilbert adopta une attitude qui, avec nos yeux d’aujourd’hui, pourrait paraître étrange.[131]
En 1899, dans son remarquable traité Grundlagen der Geometrie où il étudiait la dépendance et l’indépendance de divers axiomes de la géométrie, ouvrage qui fit forte impression sur ses contemporains, il avait en particulier éclairci le curieux énoncé de Desargues.[132] Il s’agit d’une assertion délicate de géométrie plane qui devient quasi évidente si on pense la figure comme le dessin d’un tétraèdre dans l’espace. Hilbert expliquait ce phénomène en montrant que la propriété de Desargues était fausse pour certaines géométries planes différentes de la géométrie euclidienne usuelle. Ces géométries « non arguésiennes » ne sont pas la projection de la géométrie euclidienne de dimension 3. Poursuivant son investigation sur les fondements des mathématiques, en 1900, Hilbert annonça, dans l’introduction de ses 23 problèmes formulés au congrès international de mathématiques à Paris, un célèbre programme de recherche pour établir la cohérence de l’arithmétique, fondé sur l’idée que toute question claire sur les mathématiques devait avoir une réponse positive ou négative, et – point important – la méthode qu’il préconisait consistait en une application du principe de pureté des méthodes à partir de formules élémentaires pour montrer que les détours par des notions abstraites pouvaient se ramener à des trajets directs sans excursions hors des formules élémentaires.
Or, comme il est bien connu maintenant, l’idée qu’il n’y avait pas de question sans réponse s’est avérée inexacte. Certains énoncés d’arithmétique sont indécidables. Le programme de Hilbert s’est soldé par un échec. Les excursions sont créatives en mathématiques. D’une façon imagée on peut dire que l’assertion de Desargues est typique des mathématiques en général. On peut démontrer plus de choses avec des méthodes impures. Faire des détours est fécond. On obtient plus de résultats sur les nombres réels en passant par les nombres complexes, plus sur les entiers en passant par la théorie des ensembles. Un énoncé étant donné il n’y a pas d’algorithme pour savoir s’il est démontrable ou non, il faut essayer.
L’ignorance définitive : Ignorabimus
Quelques décennies avant la prise de position de Hilbert au congrès de Paris, le physiologiste allemand Emil du Bois-Reymond, lors d’un discours pour le 45ème congrès des naturalistes et physiciens à Leipzig en 1872 avait défendu l’idée que la science, même si elle étend progressivement la connaissance, laisse nécessairement irrésolues deux grandes questions. D’abord le lien qui existe entre la matière et la force d’une part, et les phénomènes biologiques d’autre part. Ensuite la relation entre les états matériels ou physiques d’un organisme d’une part, et sa conscience (pensées, sentiments, désirs) de l’autre. Il concluait son propos par la célèbre formule Ignoramus et ignorabimus soulignant que certes il y a ce que nous ne savons pas, mais il y a aussi des choses que nous ne saurons jamais.
Le point de vue d’Emil du Bois-Reymond s’inscrivait dans un courant de penseurs qui perdura après le 19ème siècle dans lequel on peut citer Émile Boutroux, Henri Bergson et bien d’autres qui considéraient que l’abandon des explications religieuses ne garantissait pas par lui-même que la science expliquerait tout.[133] Face aux mouvements progressistes du 19ème siècle, matérialistes, positivistes, fouriéristes ou saint-simoniens, ces auteurs récusaient le scientisme qui conservait la foi religieuse en la reportant sur la science. En termes d’aujourd’hui ils soulignaient la possibilité d’une incomplétude définitive.
Le principe de pureté des méthodes découle du principe de raison suffisante de Leibniz, ils condamnent l’un et l’autre le recours à des explications ad hoc, et critiquent l’action à distance de Newton comme appel à des forces occultes. Ces deux principes sont des formes prémodernes de matérialisme. Leibniz en bon protestant accorde à Dieu le savoir et le pouvoir de faire le meilleur des mondes et de combler toutes les causes qui nous manquent dès lors qu’on a la foi.
Les résultats de Gödel établissent qu’on démontre plus de choses par des méthodes impures, c’est-à-dire par des excursions qui s’échappent du langage de départ et y reviennent après un détour dans un langage plus vaste : en passant par les probabilités pour interpréter la théorie de la gravitation, en utilisant la géométrie algébrique pour démontrer le grand théorème de Fermat (Andrew Wiles), etc.
Le principe de raison suffisante peut lui-même être vu comme une forme ancienne de matérialisme. De sorte qu’en ruinant le principe de pureté des méthodes, les nouveaux résultats de logique des années 1930 ruinaient aussi le matérialisme du marxisme-léninisme, et aussi le scientisme qui était présent dans l’idée que l’action politique du communisme marxiste s’appuyait sur la science. D’où le recul intellectuel que partageaient nos mathématiciens-logiciens du groupe Survivre… et vivre.
Revenons à Hilbert un instant. Il est tout à fait saisissant que ce mathématicien et logicien prodigieux ait poursuivi avec ses collaborateurs (Paul Bernays, Wilhem Ackermann, etc.) pendant 30 ans la recherche d’une preuve de consistance de l’arithmétique selon le programme qu’il avait annoncé. A telle enseigne qu’il répéta publiquement cette motivation l’année même où Gödel prouva que c’était impossible. Hilbert lut à la radio la conclusion de son discours du 8 septembre 1930 à la réunion annuelle de la société allemande des scientifiques et médecins :
Nous ne devons pas croire ceux qui, aujourd’hui, avec un air philosophique et un ton supérieur, prophétisent la fin de la culture et se complaisent dans l’ignorabimus. Pour nous, il n’y a pas d’ignorabimus, et à mon avis il n’y en a pas non plus pour les sciences naturelles. Au lieu du stupide ignorabimus, notre devise est au contraire : Nous devons savoir, nous saurons.
Hilbert ne considère pas la cohérence de l’arithmétique comme une conjecture qui pourrait être infirmée ou validée grâce aux talents des mathématiciens. Probablement parce que, en tant que conjecture, si elle était réfutée les vérités élémentaires de l’arithmétique seraient mises en péril. Il n’est pas impossible, en outre, que les résultats de Jacques Herbrand qui travaillait en liaison avec Hilbert et ses disciples, et qui venait de montrer la cohérence d’une partie de l’arithmétique, ait influencé Hilbert dans sa prise de position radicale.[134]
Finalement après les résultats d’incomplétude des années 1930, est-ce que nous nous trouvons du côté d’Emil du Bois-Reymond ? L’intuition de ce physiologiste se trouve-t-elle tout simplement confirmée, les deux énigmes du rationalisme qu’il avait présentées étant validées comme ignorance définitive ? Non, pour la raison que l’argumentation de Bois-Reymond est purement philosophique, or un ordre de causalité nouveau est apparu. Et ce registre se révèle créatif par sa nature propre. Nous sommes passés à une réalité plus concrète. Cette raison nouvelle est la combinatoire. Elle oblige à voir différemment toutes les connaissances où les combinaisons de signes sont présentes, c’est-à-dire les mathématiques et les sciences mathématisées, la chimie, et la biochimie des systèmes ouverts.
La méthode des excursions, que nous avons appelée hétéropoïétique, nous invite à voir différemment la construction de connaissance. Cette manière de faire est présente hors des mathématiques en de nombreux domaines et nous permet, en particulier, de voir la « science normale » au sens de Thomas Kuhn[135] comme une science qui respecte le principe de pureté des méthodes par opposition aux révolutions scientifiques qui sont très souvent hétéropoïétiques.
Les conséquences de cette ontologie dans le domaine de la biologie sont multiples, en considérant l’analogie combinatoire entre les énoncés logiques et les molécules d’une part, et entre les démonstrations de théorèmes et les synthèses de molécules d’autre part. Certaines d’entre elles ont été abordées dans les deux derniers chapitres, sous l’angle de la façon de penser les risques.
À partir de l’interprétation de la logique et de la combinatoire que nous avons développées dans le présent essai plusieurs conséquences peuvent être tirées sur l’appréhension des risques :
La tempérance collective est la préoccupation la plus urgente. Elle ne se fera sûrement pas toute seule spontanément. Car mettre en avant les risques dus à l’ignorance se heurte aux habitudes de la science nomologique fortement ancrées depuis Francis Bacon et Auguste Comte. D’autant plus que la raison économique est avide de toute innovation ainsi que nous avons vu autour du concept d’opportunisme. Modifier la nature s’appuie toujours sur une forme de scientisme en simplifiant la réalité et en présentant cette vision comme évidente. Souvenons-nous de cette période après la découverte de la double hélice où, à l’attention du public, les êtres vivants étaient devenus des ordinateurs. Barry Commoner avait raison de dire « la nature en sait davantage ».
Le hasard est un alibi pour justifier n’importe quoi. Il faut insister car certains biologistes, encore maintenant, ne veulent pas le reconnaître. a) La roulette est un instrument qui génère une indépendance beaucoup trop forte, Jacques Monod eut tort de s’appuyer sur cette idée. b) Si hasard il y a, on doit pouvoir le mesurer or, comme nous avons vu au chapitre 3, l’aléa de l’évolution in situ n’est, le plus souvent, pas quantifiable faute d’avoir plusieurs « évolutions » à disposition. c) Le hasard probabiliste n’est pas la seule façon de décrire les répartitions désordonnées. Nous disposons aujourd’hui de tout un nuancier de représentations qui possèdent certaines propriétés du hasard probabiliste mais pas toutes.
Sur la question de la pureté des méthodes, la preuve apportée au fait que les méthodes impures sont plus fécondes, ouvre une interrogation philosophique passionnante. Comment ces extensions du langage qui reviennent près de leur point de départ dans le langage initial, se transposent-elles dans le domaine de la biologie moléculaire par notre « dictionnaire » ?
Que veut réellement dire : « Diese Welt ist nicht die Welt allein » ? Qu’est-ce qui peut jouer en biologie moléculaire le rôle des nombres complexes vis à vis des nombres réels ? Le rôle de la géométrie algébrique par rapport à l’arithmétique ?
La réponse est-elle donnée par l’approche de la morphogenèse de René Thom ?[136] Celle-ci propose, en effet, d’expliquer l’apparition et la transformation de formes mouvantes dans le vivant, par un détour très analogue à l’idée de démontrer le théorème de Desargues plan en le pensant dans l’espace.[137]
Mais alors l’ordre combinatoire des molécules et l’idée que la synthèse est l’analogue de la démonstration en logique ne sont pas prises en compte. Une hypothèse simple est que l’autre monde soit le monde épigénétique intervenant par catalyse. En contribuant aux chaînes de synthèse sans apparaître dans l’issue moléculaire de ces chaînes, une action catalytique peut être vue comme un détour hétéropoïétique. Le fait que d’autres mondes viennent éclairer le langage usuel comme dans le cas de la physique quantique voudrait dire que certaines molécules peuvent s’insérer dans des chaînes de synthèse chimique et jouer un rôle de catalyseur. Avec deux modalités cognitives : d’une part la possibilité d’expliquer le rôle d’un contexte épigénétique, d’autre part de comprendre le risque apporté par des molécules que nous ne connaissions pas et qui prendraient part à de nouvelles synthèses.
Reprenons les exemples les plus frappants parmi ceux que nous avons évoqués. D’abord le fascinant énoncé de Desargues. Voici un ingénieur au 17ème siècle qui veut faire valoir l’importance des tracés géométriques exacts pour la taille des pierres en architecture, autrement dit qui plaide pour une stéréotomie rigoureuse. Comme il se heurte à la profession des maçons aux yeux desquels ces tracés sont en pratique inutiles, il publie un petit traité de géométrie descriptive avant la lettre et y ajoute en appendice la démonstration d’une propriété de géométrie plane relative à des triangles emboités.[138] Et il fait la remarque qu’en l’occurrence cette propriété est évidente si on pense la figure comme la projection d’une figure de l’espace composée d’un tétraèdre coupé par deux plans. Cette remarque est correcte mais aussi tout-à-fait curieuse et même troublante, car elle est un exemple incontestable d’un détour en dimension 3 qui simplifie la déduction logique d’un problème géométrique de dimension 2. Desargues est engagé dans une polémique professionnelle[139] et cet exemple qu’il ajoute en appendice lui sert à montrer que les tracés sur le papier peuvent gouverner exactement des propriétés dans l’espace. Alors que pour nous la valeur de cet exemple réside plutôt dans le curieux pouvoir simplificateur des excursions langagières respectant la logique que nous appelons des extensions hétéropoïétiques.
En physique les révolutions scientifiques au sens de Thomas Kuhn[140] relèvent-elles de l’hétéropoïèse ? Il semble qu’il soit nécessaire pour cela qu’il y ait introduction d’objets nouveaux susceptibles d’engendrer un nouveau langage. Ce n’est apparemment pas le cas de la relativité restreinte qui au contraire évacue la notion d’éther comme contredite par l’expérience. En revanche la mécanique quantique dans l’interprétation qu’en donne Niels Bohr est typiquement hétéropoïétique. Historiquement elle part en effet de l’apparition d’une combinatoire discrète dans les raies spectrales d’absorption et d’émission ainsi que pour expliquer le rayonnement du corps noir. Elle introduit un nouveau langage pour rendre compte des nombres entiers que ces expériences font apparaître dans les propriétés des particules élémentaires et de la lumière. Bohr souligne que les conséquences de la théorie quantique sont apparentes macroscopiquement avec les termes de la physique ordinaire.
Un troisième exemple important nous est suggéré par Hermann Weyl par l’analogie qu’il relève entre la logique des mathématiques formalisées et les molécules de la biologie.[141]
Enfin nous avons signalé le procédé fréquemment utilisé par le libéralisme économique que nous avons désigné du vocable d’opportunisme qui consiste à se saisir d’innovations scientifiques pour créer de la valeur par l’engouement qu’on peut lui associer.
De très nombreuses situations pourraient être mentionnées où le phénomène d’excursion est présent sans que pour autant cela mette en œuvre une combinatoire. On peut penser à des récits comme l’Odyssée, à la cure psychanalytique, etc. Aussi bien si nous rapprochons cette forme de créativité à la dualité étudiée par Paul Ricœur entre l’utopie et l’idéologie[142], apparaissent deux proximités : la phénoménologie de l’hétéropoïèse et de l’incomplétude se rapproche plutôt de ce qui est qualifié d’utopique, alors que le progrès scientifique, le réductionnisme, l’irresponsabilité des avancées de la technique ressemblent plutôt à de l’idéologie (cf. Jacques Ellul, Karl Jaspers, etc.) en tant que réalité vécue comme telle par les acteurs concernés.
Le fait que l’incomplétude soit maintenant un éventuel plausible place clairement les discours à visée réductionniste parmi les idéologies, qu’ils soient fondés sur la croyance à une grammaire prétendument complète, ou qu’ils soutiennent implicitement l’idée d’une numérisation des phénotypes humains, par l’installation d’outils de contrôle social algorithmisés.
Par rapport aux idéologies historiques comme la théorie marxiste de la dictature du prolétariat, le nazisme, de nouveaux enjeux se trouvent maintenant mis en évidence parce que l’idéologie a été présente dans la science par le programme de Hilbert durant trente ans et s’est soldé par un échec. Dès lors la science n’est plus à l’abri de ces doctrines totalisantes et tout porte à penser que c’est maintenant en biologie que ces déviances quasi religieuses vont se développer.
Le nouveau rôle ancillaire des mathématiques
Selon le positivisme, l’expérimentateur fait des mesures et utilise les mathématiques pour les résumer par une formule. C’est leur rôle de discipline servante. Cependant le propre des mathématiques ne consiste pas à proposer des formules mais à trouver des démonstrations, c’est-à-dire des chemins logiques depuis les axiomes jusqu’aux énoncés, si ceux-ci sont démontrables, autrement dit des théorèmes.
Mais curieusement il n’y a pas de lois pour produire des démonstrations, aucune mécanique du fluide « vérité » permettant de dire quels énoncés sont démontrables et lesquels ne le sont pas, sauf considérations logiques triviales. Les mathématiques ne sont pas une science nomologique. La découverte d’une démonstration est une « trouvaille ». Dans le cas le plus simple de l’arithmétique déjà, aucun ordinateur n’est capable de fournir la réponse à la question : « démontrable ou non démontrable ? »
La tentative par David Hilbert au début du 20ème siècle de démontrer que l’arithmétique est non contradictoire a été démontrée vaine par Kurt Gödel en 1930-31. Les démonstrations fabriquent du simple en se servant de trajets extrêmement compliqués.
Le premier penseur à pointer l’importance du fait que les mathématiques ne sont pas nomologiques fut le philosophe et logicien Jean Cavaillès.[143] Mais il revient, semble-t-il, au mathématicien et physicien Hermann Weyl d’avoir le premier compris l’importance que les limitations, qu’on peut établir rigoureusement sur les mathématiques, portaient enseignement sur la combinatoire chimique et biologique.[144]
La nature vivante est faite de produits chimiques en état métastables capables de durer un certain temps grâce au flux d’énergie solaire. Les molécules fondamentales, ressemblent à des codages, l’ADN avec quatre bases, les protéines avec les acides aminés. Elles opèrent dans un contexte qui joue le rôle de langage plus vaste, ce qu’on appelle l’épigenèse.
Pour étudier cette combinatoire la science nomologique est insuffisante, il est nécessaire d’utiliser l’autre domaine dont nous disposons où intervient la combinatoire : les mathématiques. L’analogie de considérer les énoncés comme des molécules et les démonstrations comme les trajets de synthèse nous apporte déjà beaucoup du point de vue de la connaissance.
D’abord la récusation du principe de pureté des méthodes. Cela fait comprendre que la scène où se situe l’action de molécules pour telle ou telle fonction (enzymes, etc.) peut résulter de détours par des corps qui ne sont plus présents mais ont joué un rôle par le passé. On peut synthétiser plus de corps en rajoutant provisoirement des molécules étrangères sans que celles-ci persistent finalement.
Nous devons admettre que, comme les théories mathématiques, le monde vivant est incomplet. Cela signifie que ce qui est chimiquement possible dans des circonstances données peut dépendre de la présence ou de l’absence d’une molécule étrangère nouvelle que nous ne connaissons pas dans ce cadre expérimental.[145] Comme disait Commoner « Nature knows best« . Elle sait par son passé, parce qu’elle a rencontré des circonstances que nous ignorons. Mais ajoutons qu’elle ne sait rien sur les perturbations dues à l’homme.
Ainsi les organismes génétiquement modifiés, souvent anodins, souvent plus fragiles que les autres à la longue, peuvent aussi être porteur de modifications qui se propagent sans que nous puissions le savoir à l’avance.
Ce
que ce nouveau rôle ancillaire nous apporte au premier chef ce sont des limites
à la connaissance, limites très différentes de celles des sciences
nomologiques pour lesquelles il suffisait de restreindre le champ d’application
de la loi si l’expérience la contredisait.
Bibliographie
A. Aguilera-Castrejon et al. « Ex utero mouse embryogenesis from pre-gastrulation to late organogenesis » Nature 593, p119–124 (2021).
M. Armatte « Invention et intervention statistiques. Une conférence exemplaire de Karl Pearson (1912) » Politix, vol. 7, n°25, 1994, L’imagination statistique, pp. 21-45.
G. Bachelard « Critique préliminaire du concept de frontière épistémologique » Actes du VIIIème Congrès International de Philosophie, Prague sept. 1934, Orbis, 1936.
U. Beck Risikogesellschaft : Auf dem Weg in eine andere Moderne, Suhrkamp 1986 ; Risk Society, toward a new modernity, Sage 1992 ; La société du risque, Aubier, 2001.
H. Bergson L’évolution créatrice, F. Alcan 1907.
M. Berthelot « En l’an 2000 » Discours au banquet de la chambre syndicale des produits chimiques le 3 avril 1894.
F. Binard Les mères de la nation – Féminisme et eugénisme en Grande–Bretagne, l’Harmattan 2016.
N. Bohr « Lumière et vie » (1932), « Discussion avec Einstein sur des problèmes épistémologiques de la physique atomique » (1949)in Physique atomique et connaissance humaine Gauthier-Villars 1961.
N. Bouleau Martingales et marchés financiers, Odile Jacob, 1998.
N. Bouleau « Une inquiétude créatrice » in La règle, le compas et le divan, Plaisirs et passions mathématiques, Seuil 2002.
N. Bouleau La modélisation critique Quae 2014.
N. Bouleau Introduction à la philosophie des sciences, Chap. IX « Les épistémologies du 20ème siècle ». Spartacus-idh 2017.
N. Bouleau Penser l’éventuel, faire entrer les craintes dans le travail scientifique, Quae 2017.
N. Bouleau Le mensonge de la finance, les mathématiques, le signal-prix, et la planète, l’Atelier, 2018.
N. Bouleau Ce que Nature sait, La révolution combinatoire de la biologie et ses dangers PUF, 2021.
N. Bouleau et D. Bourg Science et prudence, Du réductionnisme et autres erreurs par gros temps écologique PUF, 2022.
N. Bouleau « Influenceurs et influencés ». Alliage : Culture – Science – Technique, 2024, 83.
N. Bouleau Le hasard et l’évolution PUF 2025.
D. Bourg et A. Fragnière La Pensée écologique. Une anthologie, PUF 2014.
D. Bourg et A. Papaux Dictionnaire de la pensée écologique, PUF 2015.
D. Bourg Une nouvelle terre. Pour une autre relation au monde, Desclée de Brouwer, 2018.
D. Bourg Dévastation, la question du mal aujourd’hui PUF 2024.
E. Boutroux De l’idée de loi naturelle dans la science et la philosophie contemporaine Cours à la Sorbonne 1992-93, Vrin 1949.
Buffon, Comte de, Œuvres complètes, tome 10, Paris, Imprimerie royale, 1778.
F. Bussy G. Anders et nos catastrophes, Le passager clandestin 2020.
R. Carson Silent Spring, Houghton Mifflin 1962.
J. Cavaillès, Sur la logique et la théorie de la science (1942), Vrin 1976.
B. Commoner Science and survival, Viking press 1963.
B. Commoner The Closing Circle, Nature, Man and Technology, A. Knopf 1971.
H. E. Daly (ed.) Toward a steady-State Economiy Freeman 1973.
R.A. Dana et M. Jeanblanc-Picqué Marchés financiers en temps continu, Economica1994.
A. Danchin « Hasard et biologie moléculaire » in Le hasard aujourd’hui, Seuil 1991,
M. Davis, Computability and Unsolvability, McGraw-Hill, 1958
G. Debreu Théorie de la valeur, Analyse axiomatique de l’équilibre économique (1959) Dunod 2001.
P. Deligne « Quelques idées maîtresses de l’œuvre de A. Grothendieck » Société Mathématique de France 1998.
R. Dumont L’utopie ou la mort, Seuil 1974.
J. Fauvel, J. Gray, The History of Mathematics, a Reader, Macmillan Press 1987,
S. Freud Die Traumdeutung, Vienne 1900, trad. I. Meyerson L’interprétation des rêves, PUF, 1987.
J.-Y. Girard « Le théorème d’incomplétude de Gödel » in N. Bouleau, J.-Y. Girard et A. Louveau Cinq conférences sur l’indécidabilité Presses des Ponts 1983 et arXiv:0711.4717 (2007).
R. Godement « M. Guichard et les mathématiciens »Le Monde, 9 septembre 1970.
A. Grothendieck »Remous au Collège de France » Survivre… et vivre n°9 Août-Sept. 1971.
A. Grothendieck La clef des songes (posthume).
A. Grothendieck « Comment je suis devenu militant » Survivre n°6 janv. 1971.
Archives Grothendieck (https://grothendieck.umontpellier.fr) ; « Grothendieck Circle » (http://www.grothendieckcircle.org).
E. Haeckel, Les énigmes de l’univers, A. Costes éditeur 1920.
J. E. Hopcroft, J. D. Ullman, Formal languages and their relation to Automata, Addison-Wesley 1969.
A. Jacquard « Hasard et génétique des populations » in Le hasard aujourd’hui, Seuil 1991.
Ch. Jacquier Introduction historique de à l’article « La responsabilité sociale du savant » de A. Grothendieck, Agone 41-42, 2009, p193-203.
F. Jaëcksous la dir. de, Lectures grothendieckiennes, Spartacus-idh 2023.
K. Jaspers, La bombe atomique et l’avenir de l’homme (éd. originale Die Atombombe und die Zukunft des Menchen, Piper, 1958) trad. E. Saget Buchet-Chastel, 708 pages, 1963.
E. Kant Fondements de la métaphysique des mœurs (1785).
T. Kuhn, The Essential Tension, Univ. of Chicago Press 1977.
R. Kurzweil The New Humanists, J. Brockman ed., Barnes and Noble 2003.
J. Jeans Scientific Progress, six Halley Stewert Lectures (1936) trad. P. Couderc, Le progrès scientifique, Alcan 1938.
I. Lakatos and A. Musgrave eds, Criticism and the Growth of Knowledge Proceedings of the International Colloquium in the Philosophy of Science, London 1965 Cambridge Univ. Press, 1970.
J.-P. Malrieu, « Merci Mr. Mansholt », Survivre… et vivre, no 12, 1972,
P. Mancosu Infini, logique, géométrie, Vrin 2015.
J. Mascart, dir. de l’observatoire de Lyon, Notes sur la variabilité des climats Audin 1925.
G. Matheron Estimer et choisir Presses des Mines 1978.
D. Meadows et al. The Limits to Growth, Potomac Ass. 1972.
A. Naess « The shallow and the deep, long-range ecology movement. A Summary », Inquiry, 16, 1973.
C. Pessis Mémoire « Les années 1968 et la science Survivre… et Vivre, des mathématiciens critiques à l’origine de l’écologisme », EHESS-Centre A. Koyré, 2008-2009.
C. Pessis (éd.), Survivre et vivre. Critique de la science, naissance de l’écologie, L’Échappée, 2014.
J. Piaget, Sagesse et illusions de la philosophie, PUF, 1965
J. Perrin « La nouvelle espérance » in La recherche scientifique, Hermann 1933.
E. Renan, L’avenir de la science, Flammarion 1890.
P. Ricœur, Lectures on ideology and utopia (18 conférences tenues en 1975 à l’université de Chicago), trad. éd. du Seuil 1995.
J. Sakarovitch, Epures d’architecture, de la coupe des pierres à la géométrie descriptive, XVIe-XIXe siècles, Birkhäuser 1998.
P. Samuel, Histoire des Amis de la Terre, Les Amis de la Terre, 2006.
P. Samuel Ecologie : détente ou cycle infernal Union générale d’édition 1973.
W. Scharlau, « Who is Alexandre Grothendieck » Notices of the AMS, Vol. 55 n°8 sept. 2008.
M. P. Schutzenberger « On context-free languages and push-down automata » Information and control, 6, 3, 246-264, 1963.
E. Shils, « Le contrôle social de la technocratie » in Survivre au futur ? G. R. Urban (ed.), trad. P. Vielhomme et R. Louit, Mercure de France 1973.
A. Slomson, « Uldum, 1971 : Rapport du Congrès de logique à la mémoire de Bertrand Russell et les controverses auxquelles il donna lieu », in Pourquoi la mathématique ? Union Générale d’Edition, 1974.
Survivre n°2/3 sept.-oct. 1970; Survivre… et vivre n◦10 oct. – nov. 1971.
R. Thom, Prédire n’est pas expliquer, Eshel, 1991.
R. Thom « La méthode expérimentale un mythe des épistémologues (et des savants ?) » Le Débat 1985/2 n°34, 11-20.
R. Thom, Stabilité structurelle et morphogenèse, InterÉditions, 1972.
G. R. Urban et M. Glenny Can We Survive Our Future ? trad. P. Vielhomme et R. Louit, Mercure de France 1973.
H. Weyl, Philosophie des
mathématiques et des sciences de la nature, MetisPresses 2017, Appendice B,
« Ars Combinatoria ».
Table des Matières
Introduction
Chapitre 1. Un chercheur surdoué
Chapitre 2. Une nouvelle vision de la science
Les mathématiques ne sont pas une
science nomologique
Chapitre 3. Naturaliser l’artificiel ?
La tempérance collective
Chapitre 4. La valeur et le n’importe quoi
Les marchés financiers à terme
L’opportunisme institutionnel
L’eugénisme en douceur
Conclusion
L’ignorance définitive
Le nouveau rôle ancillaire des mathématiques
Bibliographie
[1] Cf. ma conférence à l’Université de Montpellier dans le cadre de la 5ème journée « Condorcet », le 5 novembre 2024, vidéo en ligne https://www.youtube.com/watch?v=eBzeiRD5s-I
[2] Maintenant que les écrits importants de Grothendieck ont été publiés, nous renvoyons particulièrement aux références suivantes : Céline Pessis (éd.), Survivre et vivre. Critique de la science, naissance de l’écologie, L’Échappée, 2014 ; les archives Grothendieck (https://grothendieck.umontpellier.fr) ; le « Grothendieck Circle » (http://www.grothendieckcircle.org).
[3] Cf. Lectures grothendieckiennes, sous la dir. F. Jaëck, Spartacus-idh 2023. p36 et seq.
[4] Notons cependant qu’André Weil partageait les mêmes inquiétudes quant à l’avenir: « Le mathématicien, interrogé sur l’avenir de sa science, écrit-il, se trouve en droit de poser la question préalable : quel est l’avenir que se prépare l’espèce humaine ? […] assistons-nous au début d’une nouvelle éclipse de la civilisation ?» Les grands courants de la pensée mathématique présentés parF. Le Lionnais, A Blanchard 1962.
[5] La clef des songes §33.
[6] Survivre n°2/3 sept.-oct. 1970.
[7] « Comment je suis devenu militant » Survivre n°6 janv. 1971.
[8] Survivre… et vivre n◦10 oct. – nov. 1971.
[9] René Thom, reprendra en 1985 la critique de l’empirisme avec des arguments différents, cf. « La méthode expérimentale un mythe des épistémologues (et des savants ?) » Le Débat 1985/2 n°34, 11-20.
[10] W. Scharlau, « Who is Alexandre Grothendieck » Notices of the AMS, Vol. 55 n°8 sept. 2008.
[11] Voir le compte rendu très soigné qu’il fait de cet imbroglio dans l’article « Remous au Collège de France » Survivre … et vivre n°9 Août-Sept. 1971.
[12] Cf. N. Bouleau « Une inquiétude créatrice » in La règle, le compas et le divan, Plaisirs et passions mathématiques, Seuil 2002.
[13] Cf. Pierre Deligne « Quelques idées maîtresses de l’œuvre de A. Grothendieck » Société Mathématique de France 1998. Son ardeur au travail est bien rendue à partir de témoignages par Winfried Scharlau Who is Alexander Grothendieck ? Oberwolfach 2006. Voir aussi l’introduction historique de Charles Jacquier à l’article « La responsabilité sociale du savant » de A. Grothendieck, Agone 41-42, 2009, p193-203.
[14] On peut se reporter aux vidéos en ligne de Pierre Cartier pour l’histoire des idées et de Gilles Pisier pour les conjectures afférentes aux inégalités d’analyse fonctionnelle. Voir également le recueil Lectures grothendieckiennes, op. cit.
[15] Voir l’introduction de Frédéric Jaëck des Lectures grothendieckiennes.
[16] Parallèlement aux travaux de Israel Gelfand et Sergueï Sobolev en Union soviétique.
[17] « Les savants et l’appareil militaire » avec G. Edwards.
[18] A. Slomson, « Uldum, 1971 : Rapport du Congrès de logique à la mémoire de Bertrand Russell et les controverses auxquelles il donna lieu », in Pourquoi la mathématique ? Union Générale d’Edition, 1974.
[19] Cf. Günther Anders et nos catastrophes par F. Bussy, Le passager clandestin 2020.
[20] Cf. K. Jaspers La bombe atomique et l’avenir de l’homme, Buchet-Chastel 1963.
[21] En 1988 il refusera le prix Crafoord qui lui était attribué conjointement à Pierre Deligne.
[22] Lettres manuscrites publiées par Céline Pessis dans son mémoire « Les années 1968 et la science Survivre… et Vivre, des mathématiciens critiques à l’origine de l’écologisme », EHESS-Centre A. Koyré, 2008-2009.
[23] Union générale d’édition 1973.
[24] Voir sur cette période le témoignage de Jean Malgoire en ligne https://www.google.fr/search?as_q=Malgoire+sur+Grothendieck&as_epq=&as_oq=&as_eq=&as_nlo=&as_nhi=&lr=&cr=&as_qdr=all&as_sitesearch=&as_occt=any&as_filetype=&tbs=#fpstate=ive&vld=cid:c5d1a1b1,vid:13G9GtwlZ_A,st:0
[25] Ce texte est publié dans le n°9 août-sept 1971 de Survivre… et Vivre, sous la signature de « la rédaction de Survivre », et sous la signature d’Alexandre Grothendieck dans l’ouvrage Pourquoi la mathématique, Union Générale d’édition 1974 où il est suivi de diverses réactions d’auteurs de l’époque, et du compte rendu du contre-colloque de logique d’Uldum par le logicien Alan Slomson. C’est cette seconde version dont nous citons ci-dessous des extraits, les notes de Grothendieck sont indiquées note A. G.
[26] Qui venait de paraître aux éditions du Seuil un an auparavant, en 1970.
[27] A. Jacquard « Hasard et génétique des populations » in Le hasard aujourd’hui, Seuil 1991.
[28] Cf. G. Matheron Estimer et choisir Presses des Mines 1978.
[29] R. Thom, Prédire n’est pas expliquer, Eshel, 1991.
[30] Voir ci-dessous chapitres 3 et 4.
[31] Voir N. Bouleau et D. Bourg, Science et prudence, Puf, 2022.
[32] Cf. l’article d’Eugène Rabinovitch, « The Mounting Tide of Unreason » (« La vague montante de la déraison »), paru dans le Bulletin of the Atomic Scientist, mai 1971. (note A. G).
[33] Le livre de Jacques Monod, Le Hasard et la Nécessité, s’il n’est pas un dogme complet du scientisme, en est cependant une illustration particulièrement frappante. (note A. G).
[34] Neurone = cellule nerveuse. (note A. G).
[35] Pierre Samuel se démarque sensiblement dans son livre Écologie, détente ou cycle infernal Union Générale d’éditions 1973, de la formulation « systématique » de Grothendieck. Il écarte aussi « les tendances mystiques » qui pourraient résulter d’une critique trop absolue de la science.
[36] Dès le premier numéro de Survivre A. Grothendieck rédige avec G. Edwards un exposé qu’il a fait à Montréal « Les savants et l’appareil militaire » Survivre n◦1 août 1970.
[37] Survivre… et Vivre n◦12.
[38] Cf. R. Godement « M. Guichard et les mathématiciens »Le Monde, 9 septembre 1970.
[39] Cf. l’article « les pépins et les noyaux » en deux volets, synthèse de celui de Yves Le Henaff diffusé en complément du n° 12 de Survivre… et vivre intitulé « la pollution radioactive ».
[40] « Sur le divorce entre science et vie, scientifiques et population » dès Survivre n◦1, puis dans « Comment je suis devenu militant ».
[41] Lancé juste à la veille du Sommet de la Terre de Rio en 1992 qui amorça la série des conférences des Nations Unies sur le climat, ce manifeste plaidait pour la science et contre la protection de la nature. Il fut signé par soixante-douze prix Nobel.
[42] Voir Jean-Paul Malrieu, « Merci Mr. Mansholt », Survivre…et vivre, no 12, 1972, p. 24-28.
[43] Voir Pierre Samuel, Histoire des Amis de la Terre, Les Amis de la Terre, 2006.
[44] Dans les années 1980, Roger Godement donna une conférence à l’École nationale des ponts et chaussées dans le cadre d’un cycle STS (science, techniques, société) et vint dans l’amphithéâtre avec des boîtes à fiches comme on en utilisait dans les bibliothèques à l’époque. Sur ces fiches, il avait noté des références précises pour répondre à toutes les questions sur qui fabrique et qui utilise les armements. Son talent d’orateur fonctionnant très bien, il fut acclamé par les élèves.
[45] Houghton Mifflin 1962.
[46] Certains historiens ne placent pas Rachel Carson dans le mouvement écologiste selon l’argument qu’en 1962 « ecologism (and therefore the possibility of being Green) did not exist ». A. Dobson Green Political Thought HarperCollins 1990.
[47] B. Commoner Science and survival, Viking press 1963.
[48] ibid.
[49] B. Commoner The Closing Circle, Nature, Man and Technology, A. Knopf 1971.
[50] D. Meadows et al. The Limits to Growth, Potomac Ass. 1972, modélisation commencée à l’été 1970.
[51] C’est un grave contresens d’avoir traduit le titre de cet ouvrage capital par L’encerclement : problèmes de survie en milieu terrestre (Seuil 1972). The closing circle se rapporte aux cycles en boucle fermée de la nature qui font que les déchets des animaux et des plantes digérés par des bactéries redeviennent des aliments dans l’humus et le plancton. Le 13ème et dernier chapitre du livre est entièrement consacré à développer cette idée que Commoner considère, à juste titre, comme capitale. Un titre plus approprié eût été « Le grand cycle vertueux ».
[52] Scientific Progress, six Halley Stewert Lectures (1936) trad. P. Couderc, Le progrès scientifique, Alcan 1938.
[53] ibid.
[54] Il n’est que de lire les textes de Ernst Haeckel au 19ème siècle ou de Richard Dawkins au 20ème pour ressentir cette foi typique qui motive les scientistes et qui relève d’un trait émotionnel qui n’a rien de scientifique.
[55] Karl Jaspers, La bombe atomique et l’avenir de l’homme (éd. originale Die Atombombe und die Zukunft des Menchen, Piper, 1958) trad. E. Saget Buchet-Chastel, 708 pages, 1963.
[56] Can We Survive Our Future ? traduit de l’anglais par P. Vielhomme et R. Louit, Mercure de France 1973.
[57] Cf. R. Dumont L’utopie ou la mort, Seuil 1974.
[58] Cf. N. Bouleau Martingales et marchés financiers, Odile Jacob, 1998 et Le mensonge de la finance, les mathématiques, le signal-prix, et la planète, Éditions de l’Atelier, 2018.
[59] Arne Naess « The shallow and the deep, long-range ecology movement. A Summary », Inquiry , 16, 1973.
[60] Cf. H. E. Daly (ed.) Toward a steady-State Economiy Freeman 1973.
[61] Autre exemple : le très important théorème de l’équilibre de Arrow-Debreu en économie (cf. R.A. Dana et M. Jeanblanc-Picqué Marchés financiers en temps continu, Economica1994, p107).
[62] Jacques Herbrand, jeune mathématicien très brillant, décédé en 1931 d’une chute dans le massif des Ecrins, avait démontré la cohérence d’une partie de l’arithmétique, donc s’inscrivait dans l’esprit du programme de Hilbert.
[63] La théorie des catégories peut être considérée comme une théorie des ensembles, les ensembles étant pourvus de ressemblances entre eux appelées foncteurs ou morphismes représentés par des flèches.
[64] En logique mathématique les modèles sont des interprétations des théories axiomatiques.
[65] La théorie de la démonstration est la branche de la logique qui étudie ce qui est prouvable avec telle ou telle famille d’axiome. Elle inclut l’étude de l’intuitionnisme par exemple.
[66] Les ultra produits sont des notions ensemblistes permettant en logique de construire des modèles à partir d’autres modèles et ainsi répondre à des questions relatives à l’indépendance de certains axiomes.
[67] « Rapport du congrès de logique à la mémoire de Bertrand Russell et les controverses auxquelles il donna lieu » Pourquoi la mathématique Union Générale d’éditions 1974, p. 175-226.
[68] A l’université Paris 6, encore en 1973, avaient lieu ces palabres au début des amphis menés par certains étudiants engagés et se terminant par un vote sur l’opportunité de faire cours.
[69] J’ai approfondi cette analogie dans plusieurs livres récents : Ce que Nature sait, La révolution combinatoire de la biologie et ses dangers PUF, 2021 ; La biologie contre l’écologie ? Le nouvel empirisme de synthèse Spartacus-idh, 2022 ; et avec D. Bourg Science et prudence, Du réductionnisme et autres erreurs par gros temps écologique PUF, 2022.
[70] Citons Émile Picard « Sous une forme plus ou moins nette, l’idée de loi scientifique s’implante dans les esprits de ceux qui n’y voient d’abord qu’une possibilité d’accroître notre puissance sur les choses, et comme on l’a dit, de commander à la nature en obéissant à ses lois. » De la méthode dans les sciences, Alcan 1909.
[71] Un des premiers à souligner ce point fut Jean Cavaillès Sur la logique et la théorie de la science (1942), Vrin 1976.
[72] Pour une discussion des liens entre le programme de Hilbert et le principe de pureté des méthodes voir Jean-Yves Girard « Le théorème d’incomplétude de Gödel » in N. Bouleau, J.-Y. Girard et A. Louveau Cinq conférences sur l’indécidabilité Presses des Ponts 1983 et arXiv:0711.4717 (2007).
[73] « l’égalité an=bn+cn entre entiers positifs est impossible pour n plus grand que 2″.
[74] Cette vision remarquablement juste est avancée dès 1942 par Jean Cavaillès (op. cit. Vrin 1976 page 72).
[75] Ainsi que Hilbert l’a montré dans ses Grundlagen der Geometrie (chap. V §22 et §23) la démonstration du théorème de Desargues en géométrie plane utilise des axiomes inspirés de l’espace qui ne sont pas vérifiés par certaines géométries planes (non arguésiennes). Sur l’émergence de la géométrie projective cf. J. Fauvel, J. Gray, The History of Mathematics, a Reader, Macmillan Press 1987, p366 et seq. Un détour hétéropoïétique similaire démontre le théorème des trois cercles de Monge. Cf. P. Mancosu Infini, logique, géométrie, Vrin 2015, p.352 et seq.
[76] Cf. G. Matheron Estimer et choisir Presses des Mines 1978.
[77] Die Traumdeutung, Vienne 1900, trad. I. Meyerson L’interprétation des rêves, PUF, 1987, p274.
[78] Le détour hétéropoïétique, considéré à partir du langage initial, apparait comme un événement sans cause. Plusieurs exégètes de Carl Gustave Jung ont mis l’accent sur cette a-causalité, cf. H. Reeves « Incursion dans le monde acausal » in La synchronicité, l’âme et la science (1984) Albin Michel 1995.
[79] N. Bohr « Lumière et vie » (1932) in Physique atomique et connaissance humaine Gauthier-Villars 1961.
[80] N. Bohr « Discussion avec Einstein sur des problèmes épistémologiques de la physique atomique » (1949) ibid.
[81] Hermann Weyl écrit en 1931 : « mathematics and physics make the world appear more and more as an open one, as a world not closed but pointing beyond itself. Or, as Franz Werfel expresses it in pregnant wording in one of his poems, Diese Welt ist nicht die Welt allein. » Ce que l’on peut rendre par « Ce monde n’est pas le monde à lui tout seul ».
[82] Cf. N. Bouleau Ce que Nature sait PUF 2021 p. 156-157.
[83] Voir : N. Bouleau « Sur la calculabilité effective, exemples » in Cinq conférences sur l’indécidabilité, op. cit. arXiv:0711.4717 (2007) ; M. Davis, Computability and Unsolvability, McGraw-Hill, 1958, et The Undecidable, Raven Press 1965 ; M. P. Schutzenberger « On context-free languages and push-down automata » Information and control, 6, 3, 246-264, 1963 ; J. E. Hopcroft, J. D. Ullman, Formal languages and their relation to Automata, Addison-Wesley 1969.
[84] Proceedings of the International Colloquium in the Philosophy of Science, London 1965, I. Lakatos and A. Musgrave eds, Cambridge Univ. Press, 1970. Voir aussi N. Bouleau Introduction à la philosophie des sciences, Chap. IX « Les épistémologies du 20ème siècle ». Spartacus-idh, 2017.
[85] Voir l’exemple théorique Canis Theoreticus où les mutations aléatoires fournissent un processus transient. Cela entraîne qu’une trajectoire ne visitera jamais tous les états possibles. (Cf. N. Bouleau Le hasard et l’évolution PUF 2025, p. 146 et seq.).
[86] Les exemples, très particuliers, où une seule trajectoire apporte toute l’information sur le processus font l’objet d’une théorie mathématique spécifique la théorie ergodique.
[87] On ne sait pas répondre, mais cette ignorance ne peut pas être remplacée par du hasard qui régirait la réalité. Ceci est lié à ce que nous avons discuté au chapitre précédent. La combinatoire biochimique est assez riche pour dépasser ce qui relève des algorithmes et des méthodes récursives. Apparaissent alors des propriétés semi-définies positives telles que celle illustrée avec notre ouvrier et ses pommes.
[88] La notion de propriété semi-définie positive vient de la logique : pour un énoncé d’arithmétique le fait qu’il soit démontrable (i.e. qu’il soit un théorème) est une propriété semi-définie positive. Si on en trouve une démonstration alors c’est un théorème, si on n’en trouve pas alors on ne sait pas.
[89] La Defense Advanced Research Projects Agency (Agence pour les projets de recherche avancée de défense) est une agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire.
[90] Cf. N. Bouleau Le hasard et l’évolution op. cit. On n’a pas trouvé de petites roulettes dans les cellules germinales qui fournissent la preuve de l’indépendance pour la méiose ou pour les mutations. On est contraint de faire des statistiques, et elles ne répondent pas à la question si le processus est transient.
[91] Ce que produit la nature ressemble davantage à la production de théorèmes qu’aux résultats d’une roulette. Par les NTG on n’obtient pas de papillons avec marqué sur les ailes «VIVE MONSANTO» ou «BAYER FECIT».
[92] Le projet de norme paru le 5 juillet 2023 est ainsi rédigé :
Un végétal NTG est considéré comme équivalent à un végétal conventionnel lorsqu’il diffère du végétal récepteur/parental d’un maximum de 20 modifications génétiques des types visés aux points 1 à 5, dans toute séquence d’ADN partageant une similarité de séquence avec le site ciblé qui peut être prédite au moyen d’outils bio-informatiques.
1) substitution ou insertion de 20 nucléotides au maximum;
2) délétion de tout nombre de nucléotides;
3) à condition que la modification génétique n’interrompe pas un gène endogène:a) insertion ciblée d’une séquence d’ADN contiguë existant dans le pool génétique de l’obtenteur; b) substitution ciblée d’une séquence d’ADN contiguë existant dans le pool génétique de l’obtenteur à une séquence d’ADN endogène;
4) inversion ciblée d’une séquence de tout nombre de nucléotides;
5) toute autre modification ciblée de toute taille, à condition que les séquences d’ADN qui en résultent soient déjà présentes [éventuellement avec les modifications acceptées conformément aux points (1) et/ou (2)] dans une espèce du pool génétique des obtenteurs.
[93] « Agis uniquement selon la maxime par laquelle tu peux vouloir en même temps qu’elle devienne une loi universelle » E. Kant Fondements de la métaphysique des mœurs (1785).
[94] R. Kurzweil in The New Humanists, J. Brockman ed., Barnes and Noble 2003, p228.
[95] N. Humphrey, professeur de psychologie, New School of Social Research New York, in The New Humanists op. cit. p 364-65.
[96] ibid.
[97] D’après l’original manuscrit publié par Céline Pessis dans son mémoire « Les années 1968 et la science Survivre… et Vivre, des mathématiciens critiques à l’origine de l’écologisme », EHESS-Centre A. Koyré, 2008-2009. J’eus l’occasion de discuter avec Philippe Courrège au début des années 1980 alors qu’il travaillait sur le modèle Athema. Sa conception de la modélisation environnementale consistait à se ramener à un élément de volume comprenant des êtres vivants humains et non humains, d’étudier les flux physiques et économiques et de résoudre ce problème comme un problème aux limites. Nous n’avons pas trouvé d’entente, ma conception de la modélisation étant totalement différente (Cf. N. Bouleau La modélisation critique Quae 2014).
[98] Pour l’éthique collective nous devons faire référence à Emmanuel Kant et aussi à Amartya Sen car la faisabilité par tous doit être concrète donc pensée économiquement avec une aide des pays avancés aux pays pauvres. L’échec de la cop 29 à Bacou en Azerbaïdjan est une défaite pour l’humanité.
[99] « En consultant les tables de mortalité, je vois qu’on en peut déduire qu’il n’y a que 10189 à parier contre un, qu’un homme de 56 ans vivra plus d’un jour. Or comme tout homme de cet âge, où la raison a acquis toute sa maturité, et l’expérience toute sa force, n’a néanmoins nulle crainte de la mort dans les 24 heures, quoiqu’il n’y ait que 10189 à parier contre 1 qu’il ne mourra pas dans ce court intervalle de temps, j’en conclus que toute probabilité égale ou plus petite doit être regardée comme nulle, et que toute crainte et toute espérance qui se trouve au-dessous de 1/10000 ne doit ni nous affecter ni même nous occuper un seul instant le cœur ou la tête. » Comte de Buffon, Œuvres complètes, tome 10, Paris, Imprimerie royale, 1778, page 68 et suivantesavec la réponse de Daniel Bernoulli page 83.
[100] Cf. N. Bouleau Le hasard et l’évolution PUF 2024, chap.V.
[101] Le théorème de l’équilibre dit que si des acheteurs-vendeurs viennent avec leurs paniers de biens et leurs fonctions d’utilité, les échanges vont faire apparaître un système de prix sur les biens et que chaque intervenant a seulement à tenir compte de ces prix.
[102] G. Debreu Théorie de la valeur, Analyse axiomatique de l’équilibre économique (1959) Dunod 2001 p106.
[103] Voir N. Bouleau Le mensonge de la finance, les mathématiques, le signal-prix, et la planète, éd. de L’Atelier, 2018, chapitre 8 « La théorie mathématique de l’arbitrage décrit d’autant mieux la finance que la spéculation est plus performante« .
[104] Cf. A. Danchin « Hasard et biologie moléculaire » in Le hasard aujourd’hui, Seuil 1991, page 122.
[105] N. Bouleau, Le hasard et l’évolution, PUF 2024, chap. V, p.155 et seq.
[106] Edward Shils, « Le contrôle social de la technocratie » in Survivre au futur ? G. R. Urban (ed.), trad. P. Vielhomme et R. Louit, Mercure de France 1973.
[107] On peut citer, par exemple, le remarquable ouvrage de Jean Mascart, directeur de l’observatoire de Lyon, Notes sur la variabilité des climats Audin 1925 où les causes et conséquences de l’effet de serre sont étudiées sous tous les aspects et qui mise en conclusion sur l’interdisciplinarité pour résoudre les contradictions. On peut dire qu’en un siècle cela n’a pas suffi.
[108] U. Beck Risikogesellschaft : Auf dem Weg in eine andere Moderne Suhrkamp 1986 ; Risk Society, toward a new modernity, page 184, Sage 1992 ; La société du risque, Aubier, 2001.
[109] On peut garder à l’esprit l’exemple du thalidomide, cet anti-nauséeux qui fit en quatre ans plus de 20000 victimes.
[110] Pensons à la joie spontanée et naïve avec laquelle le chercheur Hi Jiankui annonça lors d’un colloque fin 2018 la naissance des fillettes qu’il avait génétiquement modifiées, et ses remarques ultérieures dénuées de tout scrupule.
[111] Cf. N. Bouleau Penser l’éventuel, faire entrer les craintes dans le travail scientifique, Quae 2017.
[112] Cf. N. Bouleau et D. Bourg Science et prudence PUF 2022.
[113] Cf. les mots clés JCVI-syn1.0 et JCVI-syn3.0.
[114] A. Aguilera-Castrejon et al. « Ex utero mouse embryogenesis from pre-gastrulation to late organogenesis » Nature 593, p119–124 (2021).
[115] L’eugénisme scientifique, eugenics en anglais, est parfois appelé « l’eugénique ».
[116] Cf. M. Armatte « Invention et intervention statistiques. Une conférence exemplaire de Karl Pearson (1912) » Politix, vol. 7, n°25, 1994, L’imagination statistique, pp. 21-45.
[117] Phénomène appelé théorie du darwinisme neuronal.
[118] D’autres bases de données génétiques permettent de vérifier des appartenances communautaires pour les mariages comme celle du projet Avotaynu basée sur l’analyse de l’ADN du chromosome Y.
[119] Cf. https://doi.org/10.1051/medsci/2021140
[120] Sara Angeli Aguiton présente une analyse sociologique des stratégies d’acteurs et d’institutions autour de la notion de gêne synthétique aux Etats-Unis « Du bon usage du terrorisme. Risque, biosécurité et gouvernement d’une biotechnologie contestée », Gouvernement et action publique 2015/3 n°3, p. 31-55.
[121] On dénombre aujourd’hui une cinquantaine de films passés en salle avec des humains modifiés. Comme on habitue les gens aux armes à feu, on les familiarise avec les situations du néo-racisme génétique.
[122] Jacques Lacan avait anticipé cet engouement : « il n’y a aucun besoin de cette idéologie [le nazisme] pour qu’un racisme se constitue, il y suffit d’un plus-de-jouir qui se reconnaisse comme tel. » Séminaire du 20 janvier 1971.
[123] Cet eugénisme par la demande, prolonge un courant né avec l’eugénisme « scientifique » qui prônait l’eugénisme positif, notamment dans les mouvements féministes. Il s’agissait d’améliorer la société par le choix rationnel du père de ses enfants. Cf. Florence Binard Les mères de la nation – Féminisme et eugénisme en Grande–Bretagne, Paris : l’Harmattan 2016.
[124] E. Haeckel, Les énigmes de l’univers, A. Costes éditeur 1920.
[125] Cf. M. Berthelot « En l’an 2000 » Discours au banquet de la chambre syndicale des produits chimiques le 3 avril 1894.
[126] Cf. J. Perrin « La nouvelle espérance » in La recherche scientifique, Hermann 1933.
[127] Cf. N. Bouleau. « Influenceurs et influencés ». Alliage : Culture – Science – Technique, 2024, 83.
[128] Cf. G. Bachelard « Critique préliminaire du concept de frontière épistémologique » Actes du VIIIème Congrès International de Philosophie, Prague sept. 1934, Orbis, 1936.
[129] Cf. J. Piaget, Sagesse et illusions de la philosophie, PUF, 1965
[130] texte analysé ci-dessus à la fin du chapitre 1.
[131] Cf. P. Mancosu Infini, logique, géométrie, Vrin 2013, p373 et seq.
[132] Cf. ci-dessus chapitre 2.
[133] Cf. E. Boutroux De l’idée de loi naturelle dans la science et la philosophie contemporaine Cours à la Sorbonne 1992-93, Vrin 1949, et H. Bergson L’évolution créatrice, F. Alcan 1907.
[134] Cf. C. Chevalley, « Sur la pensée de Jacques Herbrand », conférence au colloque sur la logique mathématique, Genève, 1934, in Jacques Herbrand, Écrits logiques, Paris, Puf, 1968.
[135] Cf. Criticism and the Growth of Knowledge I. Lakatos and A. Musgrave eds, Proceedings of the International Colloquium in the Philosophy of Science, London 1965 Cambridge Univ. Press, 1970.
[136] Cf. René Thom, Stabilité structurelle et morphogenèse, InterÉditions, 1972 ; Prédire n’est pas expliquer, Eshel, 1991. Voir aussi N. Bouleau Le hasard et l’évolution PUF 2024, chap. IV p. 137 et seq.
[137] Cf. ci-dessus chapitre 2.
[138] Cf. ci-dessus chapitre 2.
[139] Voir l’ouvrage de J. Sakarovitch Epures d’architecture, de la coupe des pierres à la géométrie descriptive, XVIe-XIXe siècles, Birkhäuser 1998.
[140] T. Kuhn, The Essential Tension, Univ. of Chicago Press 1977.
[141] Cf. H. Weyl « Ars Combinatoria » in Philosophie des mathématiques et des sciences de la nature (1977) MetisPress 2017, Appendice B.
[142] P. Ricœur, Lectures on ideology and utopia18 conférences tenues en 1975 à l’université de Chicago, trad éd. du Seuil 1995.
[143] J. Cavaillès, Sur la logique et la théorie de la science (1942), Vrin 1976.
[144] H. Weyl, Philosophie des mathématiques et des sciences de la nature, MetisPresses 2017, Appendice B, « Ars Combinatoria » p.337.