Conférence à l’université de Montpellier
5ème Journée Condorcet « Grothendieck et l’écologie radicale »
Nicolas Bouleau, le 5 novembre 2024 [7]
I. Survivre et vivre est un mouvement très singulier.
Il vient après quelques précurseurs. Rachel Carson publie Silent Spring en 1962, Barry Commoner publie Science and Survival en 1966
Mais il est antérieur au premier rapport au Club de Rome (1972),
également à la crise pétrolière (1973),
à la prise de conscience du grand public en France du problème écologique par la campagne de René Dumont à la présidentielle de 1974,
antérieur aussi à la mise en place des marchés financiers à terme, qui démuniront les États occidentaux de la majeure part de leur pouvoir de gouvernance sur l’environnement.
On est juste après Mai-68, et, dans l’arène politique, les mathématiciens n’ont guère de légitimité.
Les maths modernes de la commission Lichnerowicz sont introduites dans les programmes scolaires à partir de 1969. On est loin de l’unisson sur cette initiative. Jean Dieudonné se désolidarise de la commission au début de 1970.
Bourbaki, contrairement à l’esprit de sa fondation, est perçu comme une institution secrète et technocratique, responsable des dysfonctionnements pédagogiques.
Les prises de positions de Survivre et vivre sont si extrêmes et outrancières qu’elles n’ont aucune chance de peser dans la balance des forces politiques.
La seule explication plausible est que ce petit groupe (essentiellement Alexandre Grothendieck, Claude Chevalley, Pierre Samuel, Roger Godement, Denis Guedj, à l’étranger quelques Canadiens et le logicien Alan Slomson), composé de mathématiciens baignés de culture logique, était absolument convaincu des idées qu’ils avançaient audacieusement sur la place publique. L’attitude de Grothendieck dans ses prises de positions orales et écrites, ainsi que par ses relations avec le Collège de France, est vraiment faite pour montrer que sa conviction est entière, qu’il est prêt à sacrifier beaucoup pour le prouver, y compris ce qu’il a de plus cher : faire de la recherche.
Le mouvement Survivre et vivre concerne l’écologie, mais d’une façon différente des classifications usuelles aujourd’hui. S’il soutient les thèmes de la préservation de la nature, de la lutte contre la pollution, s’il dénonce l’aliénation due à la technique et le complexe militaro-industriel, il ne préconise pas de principes déontologiques sur le rapport à la nature comme ceux que Arne Næss proposera en 1973 pour fonder la deep ecology, En revanche, et c’est là une vraie originalité, il s’en prend à la science elle-même. Non pas pour lui opposer la sagesse philosophique, comme font les philosophes Husserl, Heidegger ou Habermas, ni pour souligner l’influence du social comme feront les postmodernes, mais en tant que scientisme, institution et culte fonctionnant par des arguments d’autorité et les financements industriels.
Il est exceptionnel que des scientifiques s’en prennent à la science.
Jacques Monod, pense même que la science est capable de fonder la morale.
Qu’est-ce qui peut bien donner à des mathématiciens une légitimité pour critiquer la science ?
La réponse vient d’un fait historique de ce champ de connaissance : ils ont buté sur les limites. Ils savent qu’on ne fait pas les mathématiques avec des machines. Jamais la science réductionniste ne rendra compte de tout ce qui est et de ce qui advient. La crise des fondements des mathématiques des années 1930 est une disruption bien plus profonde que ce qu’en ont compris ses commentateurs non-initiés. Ludwig Wittgenstein ou Régis Debray, pour ne citer que deux exemples, n’y ont vu qu’une forme du paradoxe du menteur, alors que le point fondamental n’est pas là. Il faut distinguer le procédé d’une démonstration et sa signification. Le procédé du point fixe est très fréquent en mathématiques, c’est comme ça qu’on montre l’existence d’une solution à une équation différentielle par la méthode d’Euler et la signification est alors à la base de la représentation du mouvement. Or jusqu’aux années 1930, tout le monde envisageait normalement le succès du programme réductionniste de Hilbert : son échec est la preuve qu’il y a une fécondité inaccessible par le mécanique. En ce sens, cet échec est une victoire qui montre la vanité de vouloir tout réduire et cela ouvre la voie à un autre rapport à la réalité où la fécondité du réel dépasse les procédés récursifs poussés toujours plus loin.
A cette époque, les liens entre la logique mathématique et la biologie de synthèse ne sont pas explicités. Néanmoins, il est d’usage d’appeler « atomiques » les propositions de logique les plus simples avec lesquelles les autres sont composées. La ressemblance d’une démonstration mathématique avec une synthèse chimique est une évidence présente intuitivement dans l’esprit des logiciens.
Des principaux personnages de cet épisode fascinant, on peut dire que Pierre Samuel est l’écologiste, Alexandre Grothendieck le révolté, Roger Godement le spécialiste des liens entre l’économie et l’armée, et Claude Chevalley, d’une dizaine d’années plus âgé, ami de Herbrand, est celui qui soutient la place historique des mathématiques dans cette affaire.(Jacques Herbrand est un jeune mathématicien génial mort dans un accident de montagne en 1931, il avait démontré la cohérence d’une partie de l’arithmétique).
Le colloque de logique d’Uldum d’août 1971 révèle l’importance pour le groupe de la question des fondements des mathématiques.
En août 1971, alors que le développement de la théorie logique des modèles est d’une grande actualité, Grothendieck et d’autres sont choqués que le colloque de logique prévu à Cambridge soit partiellement financé par l’OTAN. Un colloque dissident est organisé à Uldum, au Danemark, avec une série de cours où l’on trouve de grands noms : de Grothendieck sur les catégories, de Max Dickmann sur les modèles, ou encore de Martin-Löf sur la théorie de la démonstration. Le logicien Alan Slomson (spécialiste des ultra-produits) rapporte les nombreuses discussions préalables à cette dissidence dans un article d’une cinquantaine de pages très révélateur des préoccupations de ces mathématiciens-logiciens.
Il faut aussi se replacer dans le contexte universitaire de l’immédiat après Mai-68 où le marxisme, sous des formes variées, était la référence permanente, aucun cours ne pouvait se tenir sans des débats préalables quant à la pertinence des connaissances enseignées. A mon avis, les mathématiciens dont nous parlons avaient trouvé le moyen d’échapper par le haut à ce marxisme intellectuel omniprésent qui accompagnait le parti communiste et s’infiltrait partout.
Ces mathématiciens avaient compris l’ignorance définitive. Ils connaissaient les questions des fondements et, alors que la découverte de Watson et Crick sur la structure de la molécule d’ADN était faite depuis les années 1950, le dictionnaire « bio – logique » qui permet de voir les énoncés comme des molécules, était pour eux plus ou moins évident, sans avoir besoin d’en parler.[9] La conséquence qu’ils en tiraient était qu’il fallait s’engager, plutôt que d’essayer d’expliquer ces choses difficiles incapables en elles-mêmes de faire bouger le grand public. Il valait mieux s’engager pour montrer l’importance des enjeux.
II.les mathématiques ne sont pas nomologiques : l’hétéropoïèse
Je souhaite approfondir le rôle des mathématiques dans l’aventure brève et radicale Survivre et vivre, pour mieux comprendre les positions tranchées prises par Grothendieck, Pierre Samuel, Claude Chevalley et Roger Godement qui apparaissent comme une énigme dans le contexte politique de l’époque.
Il convient donc d’éclaircir ce que sont les mathématiques.
Les mathématiques ne sont pas une science nomologique.
C’est la grande découverte des années 1930, ça veut dire qu’elles ne sont pas faites de lois comme la physique et comme le positivisme voyait toute la science. Le travail des mathématiciens n’est pas de trouver des lois mais de trouver des démonstrations, ce qui se trouve être très différent. Chaque démonstration est une trouvaille et il n’y a pas de lois pour en trouver. (cf sur ce point la critique de Husserl par Jean Cavaillès) Donc ça réfute la vision d’Aristote qu’il n’y a de science que du général.[6].
Les résultats de Gödel, de Church et de Turing sont toujours racontés en termes d’incomplétude et d’indécidabilité : il y a en mathématiques des propositions indécidables, l’arithmétique n’est pas complète.
Mais il faut comprendre ce que cela veut dire vraiment.
Cette découverte bouscule le principe de pureté des méthodes. Le principe de pureté des méthodes était une règle de l’art plus ou moins implicite : c’est mieux, c’est plus élégant si on démontre un théorème avec uniquement les notions auxquelles fait appel son énoncé ou indispensables pour comprendre l’énoncé. Jusqu’à la fin du 19ème siècle les mathématiques n’étaient pas entièrement formalisées. Elles étaient le langage utilisé dans les grands traités par les grands mathématiciens (Euclide, Descartes, Euler). Leur contour n’était pas net et on avait tendance à la parcimonie sur les hypothèses. La pureté des méthodes était l’approche préconisée dans le programme de Hilbert qui s’est soldé par un échec.
Les excursions sont créatives en mathématiques. On peut démontrer plus de choses avec des méthodes impures. Faire des détours est fécond. On obtient plus de résultats sur les nombres réels en passant par les nombres complexes, plus sur les entiers en passant par la théorie des ensembles.
Un énoncé étant donné il n’y a pas d’algorithme pour savoir s’il est démontrable ou pas, il faut essayer. Le grand théorème de Fermat (qui est une propriété de nombres entiers) a été démontré par Andrew Wiles en utilisant la géométrie algébrique.
Les mathématiques sont capables d’engendrer du simple à partir de trajets très compliqués qu’on ne sait pas simplifier.
Cela touche une question philosophique célèbre, celle du principe de raison suffisante de Leibniz. Il s’énonce ainsi : « Rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est‐à‐dire qui puisse servir à rendre raison a priori pourquoi cela est existant plutôt que non existant et pourquoi cela est ainsi pluôt que de toute autre façon». Il se résume par la formule nihil est sine ratione (« rien n’est sans raison »).
C’est l’affirmation que l’univers des causes est assez riche pour rendre compte de tout ce qui est. Un tel principe pouvait être énoncé par un mathématicien du 18ème siècle qui, d’une part, envisageait que le monde se laisse représenter par les mathématiques, et d’autre part pensait que les mathématiques étaient complètes, comme on l’a cru jusqu’au début du 20ème siècle. C’est une pensée qui sous‐estime la complexité de la combinatoire. En se reliant, les monades composent des entités complexes. Mais, à l’inverse, se demander si telle entité complexe est accessible par les combinaisons est une question qu’à l’époque nul n’envisage sans réponse, puisque le principe de raison suffisante y pourvoit et nous cache cette difficulté.
Le principe de pureté des méthodes (p.p.m.) est suggéré par le principe de raison suffisante (p.r.s.) de Leibniz : Il y a assez de causes pour faire tout exister. C’est une version prémoderne du matérialisme, même si Leibniz en bon protestant accordait à Dieu le savoir et le pouvoir de faire le meilleur des mondes.
Donc l’incomplétude en ruinant le p.p.m. ruine aussi le p.r.s.[5]
donc le matérialisme
donc le marxisme-léninisme
sans pour autant invoquer Dieu.
Notons pour la philosophie que ces détours créatifs qui grapillent dans un ailleurs et reviennent près du point de départ — que j’appelle hétéropoïèse — existent aussi hors des mathématiques. Il s’agit d’une idée qui élargie toute la philosophie de la connaissance.
– Un splendide exemple en est l’Odyssée : Ulysse revient en Ithaque après un long périple. A la cour de la reine Pénélope les usages sont restés les mêmes. Mais lui il a changé, parce qu’il a vécu énormément d’imprévus, personne ne le reconnaît, excepté son chien.[2]
– Un autre exemple est la cure psychanalytique telle que préconisée par Freud, un détour par l’inconscient qui revient et fournit du sens dans le conscient.
– Mais aussi la physique quantique telle que Niels Bohr l’explique. Celui-ci montre en effet que les paradoxes apparents dus aux dualités onde-corpuscule et autres (complémentarité) ne présentent pas de contradiction parce que les expériences sont in fine exprimées dans le langage ordinaire macroscopique de sorte que c’est toujours l’une ou l’autre des interprétations qui est lue. Le détour par le formalisme quantique apparaît donc comme une excursion hétéropoïétique.(Hermann Weyl à propos de la mécanique quantique cite un vers d’un poète allemand : Diese Welt ist nicht die Welt allein.)
– On peut voir également l’approche de René Thom de la morphogenèse comme une excursion dans des espaces de dimension plus élevée observée par des projections.
Et particulièrement en chimie et biochimie. La synthèse d’une molécule est analogue à une démonstration, cela nécessite parfois de passer par des corps beaucoup plus compliqués.
Et on peut prouver que la combinatoire génétique est assez riche pour qu’apparaissent les phénomènes d’hétéropoïèse, d’incomplétude et d’indécidabilité.
Pour revenir à notre « énigme »
– il est clair que cette prise de conscience sur la nature des maths leur donnait un recul vis à vis du positivisme et du scientisme à la Ernst Haeckel.
– Mais il est clair également que cette vision de la science définitivement incomplète n’était pas transmissible au grand public ni mobilisable dans les débats politiques.
D’où les principales critiques que Grothendieck fait à la science
– gouvernance élitiste : les disciplines posent par elles-mêmes, par l’imperfection de leur corpus, des questions et indiquent des directions de recherche qui sont désignées par des super spécialistes reconnus. Même en SHS la première étape des thèses, la problématisation, consiste à placer une situation dans la grille disciplinaire gouvernée par les élites scientifiques.
– transfert vers de l’industrie d’armement : phénomène d’opportunisme au sens que je vais développer dans un instant.[3]
– science-religion, dont on a un exemple chez Jacques Monod, cité explicitement par Grothendieck. Dans le dernier chapitre de son célèbre livre Monod plaide en faveur d’une éthique pilotée par la science.
Pierre Samuel, mathématicien et écologue, rappelait dès 1971 que
L’oubli des limitations de la science est la cause directe de plusieurs des mythes qui constituent le credo du scientisme.
III-Le concept d’opportunisme
Dans cette dernière partie je voudrais approfondir les critiques faites par Grothendieck pour leur donner une portée plus actuelle.
- Au sens de l’évolution du vivant : on parle d’opportunisme si les modifications semblent avoir été faites par un artiste récupérateur
- La moule perlière Margaritifera margaritifera aurait depuis longtemps disparu de nos rivières si elle n’avait pas mis à profit l’accrochage de ses larves sur les branchies de poissons capables de remonter le courant.
- l’œil chez les vertébrés est toujours formé d’une lentille, de corps transparents et d’un écran. Il se trouve que ces corps transparents sont des protéines diverses selon les espèces et qui sont présentes dans d’autres partie du corps. L’évolution a donc utilisé certaines protéines à disposition. François Jacob utilise la notion voisine de bricolage mais qui est moins précise.
- Il y a, en économie libérale, un processus tout à fait similaire qui constitue une articulation cruciale entre science et technique, que l’on peut appeler
L‘opportunisme comme contrat social.
- Sa première caractéristique est le décalage temporel qui se produit entre découverte théorique et usage industriel. Les exemples sont très nombreux:
– les cristaux liquides : il fut une longue période où l’on ne connaissait pas d’autres usages de ces corps qui ont certaines propriétés des solides et des liquides que pour des thermomètres chromatiques. Puis on a pensé aux affichages de montres sans engrenages…
– les travaux de mécanique quantique de Léon Brillouin ont été appliqués longtemps après, aux fibres optiques
– et, cas emblématique, la découverte de la gestion des produits à terme sur les marchés financiers utilisant l’intégrale d’Ito qui avait été inventée vingt ans auparavant sans liens explicites avec la finance.
L’économie apporte des intentions, des buts, des finalités. Néanmoins ces seules finalités ne suffisaient pas à franchir les obstacles rencontrés.
Mais notons que l’opportunisme comme contrat social est une façon de rendre compte de l’influence du social sur l’évolution historique de la science qui n’est ni moderne ni post-moderne.
Au lieu de dire comme les post-modernes du début de la sociologie des sciences (Serge Moscovici, Bruno Latour, David Bloor) que la société peut changer les contenus de connaissance y compris la rationalité (Latour, Bloor) on souligne au contraire l’autonomisation morale de la recherche et l’utilisation de cette liberté créative par les intérêts économiques des parties prenantes.
On revient non pas à la vision moderne classique mais à une lecture avec néanmoins une coupure, un partage de rôles dans la société : d’un côté les scientifiques (à qui on va faire référence juridiquement en les séparant des citoyens) et de l’autre les valorisateurs qui regardent par-dessus l’épaule du créatif pour envisager une valeur économique y compris militaire sans trop perturber la recherche par l’attrait du gain qui risquerait de faire perdre la fécondité propre à la discipline.[8]
L’innocence fabriquée du chercheur est une absolution morale qui lui apporte évidemment une sérénité tout à fait précieuse pour son activité de recherche, et qui permet en plus à l’industrie d’innover, talent qu’elle n’a pas par elle-même en raison des coûts qu’elle a à gérer pour toutes les initiatives qu’elle prend.
Sur ce modèle le capitalisme a instauré un second partage. L’actionnaire individuel n’est pas responsable de ce que les entreprises font de son argent, il a même une complète immunité juridique.
Ces deux niveaux où opère une forme d’opportunisme correspondent avec ce que le sociologue Ulrich Beck avait pointé dans La société du risque :
Une part seulement des compétences décisionnelles qui structurent la société sont réunies dans le système politique et soumises aux principes de démocratie parlementaire. Une autre part est écartée des règles d’inspection et de justification publiques et reléguée à la liberté de l’investissement des entreprises et à la liberté de la recherche scientifique.[1]
On a donc trois grandes visions critiques du capitalisme :
La vision marxiste fondée sur la différence entre le marché de l’emploi et le marché des biens, d’où la notion de plus-value.
La vision de Max Weber avec le rôle des puritains qui réinvestissent sans consommer pour eux-mêmes.
Et celle d’Ulrich Beck qui souligne que l’investissement n’est pas soumis au contrôle démocratique.
Mais il y a encore un niveau plus récent :La biologie de synthèse.
La démarche scientifique était menée jusqu’alors sous la bannière des mots clés précision et approximation, il s’agit dorénavant de nombres entiers. Les entiers interviennent dans les valences des atomes et dans la configuration spatiale des molécules, qui s’apparente à de la cristallisation.
On voit ainsi l’essence différente des sciences combinatoires : l’ignorance et le savoir ne sont pas dans la même interaction. L’amélioration de la connaissance ne procède pas en raffinant un modèle grossier, elle sort du registre précision-approximation. Les phénomènes sont particuliers. La nouveauté est abondante et fortuite.
Cela n’interdit pas qu’il y ait, en plus, quelques lois, mais des lois très circonstanciées.
La biologie de synthèse rompt avec le cadre habituel de l’empirisme
La situation épistémologique particulière, due à la combinatoire, donne à la découverte d’une molécule nouvelle une valeur qui, en plus d’être éventuellement marchande, est intrinsèque, strictement cognitive. Obtenir une molécule possédant des caractéristiques souhaitées a priori n’a rien d’évident.
Aussi bien, il se produit chez les chercheurs une tendance spontanée d’étendre la protection et la liberté morale fourni par l’opportunisme économique à ces nouvelles activités combinatoires, et cela fonde le nouvel empirisme qui essaie pour voir ce que ça fait.
C’est un nouveau champ de l’opportunisme : l’opportunisme moléculaire accorde aux chercheurs en biologie une bénédiction a priori sur toutes les tentatives combinatoires qu’ils pourront essayer, y compris en se servant du hasard si besoin. Je fais référence ici aux NGT (new genomic techniques) qui furent récemment au centre de polémiques impliquant le Conseil d’Etat et la Cour de justice de l’UE.
Providence. Il est évident que ce type d’organisation sociale, institutionnalisation d’un opportunisme stratifié, fondé sur un partage entre les découvreurs et les producteurs, fonctionne sous la croyance que tout s’arrangera finalement sans que l’on ait besoin de penser ce « progrès » dans une doctrine rationnelle. On est sous la protection de la Providence.
Les techniques de gain de fonction pour anticiper d’éventuels variants, de forçage génétique (gene drive) et autres, dans un contexte géopolitique violent, nécessitent des contrôles de confinement par une sagesse collective qui pour l’instant est absente.
L’opportunisme institué est un formidable moteur pour aller toujours plus vers l’artificiel, et des trois opportunismes l’opportunisme moléculaire est le plus nouveau et de loin le plus créatif. La biologie moléculaire fascine et produit un nombre de publications proprement vertigineux. Une foule mondiale de chercheurs – particulièrement dans le monde anglo-saxon influencé par l’utilitarisme et le pragmatisme, mais aussi en Chine marquée par le matérialisme marxiste – s’est constituée de passionnés par cette nouvelle fécondité moléculaire, et qui place cette envie au-dessus des valeurs morales des religions et même des civilisations car ils ont l’impression d’agir pour l’avenir de la « vie ».
Cette frénésie à fabriquer de la « vie nouvelle » est une jouissance totalement insoupçonnée il y a seulement cinquante ans. [4] Durant la science moderne, tant décriée, on observait la nature. Certes avec des biais sociaux dont on n’avait pas conscience. Cependant maintenant on la transforme avec des biais sociaux dont on a conscience, mais que l’on dissimule derrière le processus immaculé de la recherche en laboratoire, et les bienfaits en perspective cachent la vérité des risques.
Or maintenant la science doit fonctionner avec de l’ignorance définitive.
Si les mathématiques ont un rôle privilégié dans cette refonte de l’épistémologie, c’est simplement parce qu’en mathématiques on peut démontrer l’incomplétude. Ailleurs on ne peut que la comprendre, et par suite la prendre en compte.
Le changement que cela apporte à la philosophie de la connaissance réside dans le fait que l’ignorance, qui était perçue comme un état transitoire de la civilisation sur chacun des domaines où on la rencontrait, devient une condition humaine définitive, impliquée par le processus même de la nouveauté des molécules susceptibles de prendre part au vivant.
Le travail du biologiste de synthèse qui fait des essais dans ses coupelles et s’émerveille de ses innovations est de l’ordre du constat. Si une nouvelle molécule est là, elle est potentiellement utile pour la médecine, profitable pour le commerce, ou redoutable comme poison pour la nature ou pour faire la guerre, sans qu’on le sache a priori. La méthode « au petit bonheur la chance » récuse complètement les fondements sur lesquels la déontologie scientifique s’était construite par le passé.
En tant que mathématicien, à partir de ma familiarité avec certains phénomènes combinatoires, mon rôle est de dire : Attention ! Après cela je jette le gant aux philosophes, c’est à eux de prendre leur part de responsabilité dans la conduite des débats pour influencer les enseignants, les chercheurs et les hommes politiques.
[1] U. Beck Risikogesellschaft : Auf dem Weg in eine andere Moderne Suhrkamp 1986 ; Risk Society, toward a new modernity, Sage 1992 ; La société du risque, Aubier, 2001.
[2] Cf. P. Spinicci Ithaque, enfin. Essais sur l’Odyssée et la philosophie de l’imagination, Vrin 2018.
[3] Le nucléaire reste un grave problème aujourd’hui. J’invite le lecteur à consulter l’article EPR de Wikipédia, La complexité est vertigineuse, et de tous les risques qui sont mentionnés, rien sur les risques dûs à l’humain, aux hommes qui font fonctionner ou entretiennent cette énorme machine.
[4] Il n’est que de voir la joie naïve avec laquelle le chercheur chinois Hi Jiankui a annoncé lors d’un congrès qu’il avait fait naître deux fillettes génétiquement modifiées.
[5] Car en bonne logique A=>B est équivalent à (nonB)=>(nonA)
[6] Emmanuel Kant avait compris qu’il y avait une difficulté sur l’épistémologie des mathématiques. Elles ne rentraient pas dans la classification des jugements « a priori vs a posteriori » (indépendants ou dépendants de l’expérience) et « analytique vs synthétique » (formels ou porteurs d’information) d’où l’introduction des jugements synthétiques a priori. Si on pense une démonstration comme une expérience, il faudrait placer les théorèmes mathématiques comme étant a posteriori.
[7] Je partage avec Grothendieck le fait d’avoir eu Laurent Schwartz comme directeur de thèse d’Etat. Schwartz laissait une totale liberté. Il ne donnait pas de direction d’investigation. Mais il avait un secret. Il faisait sentir ce qui l’impressionnait et ce qui ne l’impressionnait pas…
[8] Par exemple citons l’ouvrage remarquable de Jean Mascart (directeur de l’observatoire de Lyon) intitulé Notes sur la variabilité des climats publié en 1925 avec 400 pages et plus de 3000 références scientifiques qui étudie le changement climatique sous l’angle des diverses disciplines et qui critique Arrhenius qui croyait que l’élévation de température due à l’effet de serre était une bonne chose parce que favorisant les plantes. Ce livre conclut en misant sur l’interdisciplinarité pour résoudre ce grave problème. Il y a de cela un siècle et ça n’a pas vraiment marché !
[9] J’ai explicité cette analogie dans plusieurs livres récents : Ce que Nature sait PUF 2021, Science et prudence avec D. Bourg PUF 2022, La biologie contre l’écologie ? Spartacus-idh 2022, Le hasard et l’évolution PUF 2024.