Le professeur Raoult est aujourd’hui sous le coup d’une plainte auprès du Conseil de l’Ordre des Médecins pour avoir fait la promotion de son célèbre traitement à base d’hydroxychloroquine (HCQ)… parce que « son efficacité n’a pas été prouvée ». Cette plainte déposée par des infectiologues opposés à ce traitement peut, si elle débouche, conduire à une radiation pure et simple du professeur.
Voilà maintenant plusieurs mois que la propagande absurde sur la supposée toxicité de ce médicament, qui compte parmi les plus utilisés dans le monde, a concrètement cessé. C’est donc sous le seul prétexte de « manquement à la déontologie » et « d’absence de preuve d’efficacité » qu’on le traîne désormais au tribunal des pairs… Evidemment à ce compte là on peut élargir la plainte à toutes les équipes, nombreuses aux quatre coins du monde, qui ont réalisé depuis des mois des études confirmant non seulement son innocuité (pour la posologie en vigueur c'est-à-dire celle que préconise le professeur Raoult, au stade précoce de la maladie) mais encore une efficacité significative contre le COVID19. On peut aussi, pourquoi pas, déclarer la guerre, juridique tout au moins, à la moitié des pays de la planète qui comptent l’hydroxychloroquine parmi les médicaments recommandables, et massivement prescrits, pour lutter contre la pandémie…
A ce jour, si on exclue les études frauduleuses qui testent l’HCQ à haute dose (4 fois la dose autorisée pour l’étude très attendue Recovery) ou sur des patients entrant en réanimation c'est-à-dire au stade final de la maladie, la plupart des études mondiales abondent dans le sens d’une efficacité, parfois légère, parfois forte, du traitement incriminé. Et la liste de telles études s’allonge chaque mois sans qu’aucun média ne relaye ces informations pourtant cruciales [1].
En revanche, aucune plainte ne sera déposée contre les auteurs et les propagateurs du célèbre article frauduleux du Lancet qui, en truquant les chiffres, a pourtant suscité l’interdiction du plaquénil par le gouvernement Macron en France et même une recommandation de l’OMS elle-même à ne plus le prescrire à l’échelle mondiale, prenant le risque d’un sursaut majeur de mortalité mondial. Et cette affaire, l’affaire de la décennie incontestablement dans le milieu de la recherche et des publications, ne fait plus parler d’elle dans les médias. Leurs auteurs, liés au géant américain Gilead qui mène la fronde contre le plaquénil, médicament générique, ne seront pas inquiétés. Comble du déshonneur, le fait que le fameux et sérieux Lancet, revue au prestige scientifique incontestable, ait « rétracté » en urgence l’article avec un petit mot d’excuse discrète est aujourd’hui considéré comme une preuve supplémentaire de son sérieux et de sa « scientificité » ! En effet reconnaître ses erreurs (en oubliant que cette rétractation faisait suite à un immense mouvement de protestation mondial), c’est se soumettre aux fourches caudines (ou plutôt popperiennes) de la « falsibiabilité »… tandis que le « charlatan » Raoult, puisqu’il reste coupablement persuadé de l’efficacité de son médicament, sort de fait du jeu de la « bonne science » !
Evidemment, la plainte actuelle est ignoble, puisque l’innocuité du plaquénil ne peut faire de doute, mais elle est aussi un aveu : Les « fins de partie » autodécrétées contre Raoult n’ayant jamais fonctionné sur le plan scientifique, il reste aux mafias de Big Pharma et aux instances impérialistes arrogantes les attaques ad hominem et, à l’extrémité, les poursuites judiciaires, tendance très à la mode ces dernières années pour briser des individus gênants en politique comme, désormais, en science.
Le but évident est donc de faire taire, quelle que soit l’issue de cette plainte, la salissure demeurera, mais aussi d'alourdir encore le climat de peur, dans lequel toute politique répressive devient possible puisque largement consentie. Des intérêts économiques (objectifs et mille fois démontrés) sont clairement en jeu contre une massification possible du générique contre une pandémie d’autant plus lucrative qu’elle terrorise les masses : Il suffira d’attendre la mise sur le marché d’un vaccin efficace par un pays tout entier (Russie, Chine, Cuba pour le moment) pour identifier les raisons d’une avalanche de critiques, de dénonciations et de calomnies de la part des autorités occidentales (US et UE)… malgré l’urgence tant répétée d’un vaccin aujourd’hui. l’opportunité est trop forte et personne ne peut, sans naïveté, imaginer le contexte autrement. Même pour le plus sinophobe ou le plus russophobe des journalistes, les polémiques lancées contre un vaccin venant de l’Est, l’absence de polémique sur un vaccin venant de l’Ouest, démontrera que la science n’est pas « pure ».
Mais on aurait tort de réduire les conflits actuels, la « popularité » de Raoult, et les attaques dont il fait l’objet sur le plan méthodologique, à de simples calomnies utiles à court terme pour des raisons très « matérielles ». Il y a au-delà de ces inévitables influences exogènes à la science, au-delà des parasitages politico-économiques, des enjeux endogènes et sous-jacents à la recherche scientifique « pure », qui rappellent que toute histoire, y compris donc l’histoire des sciences, n’avance que par contradictions internes et luttes incessantes.
Le professeur Raoult, qu’on ne peut remettre en cause sur le plan de sa carrière et de ses gratifications (rappelons qu’il était lui aussi invité à faire partie du « conseil scientifique » entourant Macron depuis mars ! et qu’il est devenu un « charlatan » après en avoir claqué la porte), a pourtant été taxé de charlatan et de « mal science » dès les premières semaines de la pandémie en France, dès qu’il « s’est fait connaître ».
Ce concept de charlatan renvoie aussi, on l’oublie trop souvent, à l’histoire des sciences : La science avancerait pour les esprits simplistes (on dit « positivistes » ou « mécanistes » en épistémologie) grâce aux savants vertueux (ceux qui doutent par principe de ce qu’ils disent eux-mêmes, n’ont pas « d’égo » et oeuvrent presque bénévolement, hors du temps et des conjonctures locales, pour « La » Science) et contre les « mauvais » savants (ceux qui truquent, mentent, ignorent ou évitent le réel).
De ce point de vue, comme nous allons le voir, la séquence historique 2020 est, même si nous tarderons à l’admettre, une année charnière pour la recherche et même d’une certaine manière pour l’histoire des sciences.
Puisque le conflit se joue « à ciel ouvert », sous une couverture médiatique partiale et largement incompétente sur les questions scientifiques de fond (oublions l’épisode où le journaliste Patrick Cohen donne des leçons de virologie à Raoult, l’un des auteurs les plus reconnu dans le domaine), les « camps » en présence (en réalité les accusateurs et les accusés) se sont identifiés d’eux-mêmes sous des catégories souvent floues ou mouvantes : On a opposé les scientifiques sérieux et les complotistes-gilets jaunes-supporters de l’OM, les sages rationalistes et les relativistes prétentieux, les « méthodologistes » et les charlatans, ou plus largement ou sérieusement les « théoriciens » (ceux qui réalisent des essais randomisés en double aveugle ou des méta-analyses éthérées) et les « praticiens » (les médecins qui veulent tout simplement soigner avec les moyens du bord, mettre en avant leur savoir-faire et qu’on a mis à l’écart pendant toute la période du confinement), les adeptes de la rigueur scientifique et les adeptes du « bon sens », du « populisme scientifique » (néologisme récent qui en dit long sur les enjeux du conflit).
A ce titre, c’est flagrant si nous écartons le bruit de fond politico-médiatique : parmi les protagonistes, nous avons face à face, d’un coté des épidémiologistes (le professeur Raoult, le professeur Peronne, le professeur Toussaint et d’autres hors de France) c'est-à-dire des experts dans le domaine (mais sans doute trop « près » du réel pour y voir clair ?), de l’autre des « statisticiens » (comme le très énervé Olivier Berruyer du site Les-crises) ou des blouses blanches sans lien avec la recherche médicale (des physiciens comme Etienne Klein ou Jean Bricmont).
D’une certaine façon nous avons d’un coté des « formalistes », ceux qui ne s'intéressent qu’à la formalisation des « preuves scientifiques » (comme on peut les produire au sujet de la recherche sur les particules élémentaires ou des trous noirs) et utilisent pour ce faire des instruments statistiques qui croient-ils suffisent à fixer nos connaissances, de l’autre des chercheurs de terrain qui s'intéressent de près aux malades individuellement et tentent par l’expérience (et les moyens du bord) des études sur les pistes à partir de ce qu’on sait déjà (par exemple que l’HCQ est un antiviral potentiel et disponible contre les coronavirus). On le voit il ne s’agit pas d’opposer (comme l’indique peut être maladroitement le professeur Peronne) des « praticiens » et des « méthodologistes », car qu’ils le veuillent ou non, même les praticiens ont une méthode, fut-elle empirique.
Il faut bien comprendre ce que signifie « formalisme » et pourquoi cette attitude s’oppose à un esprit scientifique réellement dialectique (comme l’est spontanément celui des praticiens qui effectuent des travaux de recherche en laboratoire) : C’est une attitude mécaniste qui consiste à croire qu’on peut obtenir des preuves, même statistiques, sur du vivant aussi ingénument qu’on pourrait les obtenir avec des particules élémentaires au CERN. Pour les formalistes, les « physicalistes », le virus est un élément fixe ou stable (sans quoi comment produire des connaissances stables dans la durée ?) : C’est pour cette raison que toutes les études défavorables à l’HCQ ont été mises en avant (pour cacher les autres) en ignorant que la dose prescrite, la précocité des symptômes, peuvent changer la donne. On a affirmé sans scrupule « la chloroquine est toxique » ou « la chloroquine ne marche pas »… en oubliant que tous les médicaments y compris l’aspirine ont des contre indications, et que le traitement peut changer au fil du développement de la maladie.
Certes ces facteurs mis à l’écart, il devient très simple de faire des méta-analyses sur des milliers de patients (ou de cacher qu’on ne considère « que » les patients de stade avancé en excluant les autres). On produit des courbes et on n’a plus besoin de les interpréter, de les contextualiser puisque la situation est stable. Le COVID19 présente plusieurs phases successives pour lesquelles le traitement va changer. Reconnaître que le virus comme son hôte sont vivants, c’est admettre qu’il faudra compliquer le modèle et qu’on ne pourra jamais dire « l’HCQ marche » ou « ne marche pas ». Il faudra mesurer dans quel contexte elle marche « le mieux », dans l’attente (toujours possible) d’un médicament plus efficace.
Mais l’épidémie elle-même est un phénomène complexe et mouvant, et les formalistes s’illustrent ici encore par le mécanisme de leur approche. Pour eux le virus présente par définition toujours la même virulence : leur incapacité à expliquer pourquoi une vague massive de positifs à la fin de l’été n’engendre plus de mortalité contrairement à la première vague est révélatrice. Le formalisme, c’est de postuler qu’il y aura une « deuxième vague »… alors qu’elle n’a pas eu lieu (la courbe en « dos de chameau » dont on a longuement parlé depuis des mois).
Dans les deux cas, le formalisme mécaniste des chercheurs « non biologistes » -pour faire simple- se caractérise par une mathématisation forcée du réel sous forme de courbes intangibles… alors que les paramètres significatifs permettant d’interpréter ces courbes ne cessent de changer (laquelle des phases successives de la maladie ? laquelle des phases évolutives du virus au cours de la pandémie ?…). Seule une approche dialectique, c'est-à-dire anti-formaliste, peut nous sauver du scepticisme scientifique à terme (septicisme induit finalement par l’incapacité du formalisme à rendre compte du réel). Et il semble que l’équipe du professeur Raoult, notamment, manifeste une telle approche dialectique, contrairement aux formalistes (payés ou non par Gilead).
En réalité, contrairement aux apparences, c’est bien à une crise du formalisme scientifique qu’on assiste aujourd’hui. On pensait que l’Evidence Base Practice, qui privilégie l’expérimentation (mesures chiffrées manipulables) à l’expérience (ne pas opposer les deux), credo des statisticiens qui ont cherché, sous leurs faux airs impartiaux, à invalider l’HCQ ou à valider le redemsivir produit coûteusement par Gilead, cette méthode qui a mis sur le devant de la scène la fameuse « randomisation en double aveugle », serait la voie de la preuve scientifique intangible, qui « finirait » par dire le fin mot de l’histoire…
Une crise qui s’explique d’ors et déjà par un fait indiscutable : Les études invalidant l’HCQ sont pour la grande majorité des études rétrospectives sans randomisation en double aveugle, au moment où on a reproché à l’IHU de Marseille de n’avoir pas commencé avec cette fameuse méthode (coûteuse et longue, c’est à présent notoire)… et les études favorables à l’HCQ sont plus nombreuses (si on exclue les études hors posologie et de stades avancés) et comptent aussi des expériences en double aveugle !
Il y a donc, de façon brute, des « études concluantes » pour les deux « camps »… la méthode n’aurait rien à voir avec cette contradiction fondamentale ? On sait d’ors et déjà que la « vérité » ne sortira pas du débat « à mains levées »… ou à celui qui a collecté le plus grand nombre d’articles concluant.
Pourquoi par exemple le Lancet a « malencontreusement laissé passer » cette étude frauduleuse en juin ? Cette revue prestigieuse qui compte plusieurs comités de lecture avant publication s’est laissé avoir à cause de la corruption de Gilead ou d’un problème méthodologique de fond ? Sans doute les deux… mais le problème épistémologique se prète utilement à la discussion aujourd’hui.
Evidemment, partant de données brutes, toutes les manipulations chiffrées de l’étude statistiques étaient sans doute valables et les comités de lecture ont validé… puisque ce sont les sources des données qui ont posé problème et aucun comité de lecture ne pouvait reconsulter autant de sources avant de valider l’étude. La fraude a eu lieu sur le choix des données, pas sur leur manipulation statistique ultérieure… et on comprend pourquoi le formalisme scientifique, par définition hautement vulnérable puisque trop sûr de ses « chiffres » et de ses « courbes », de ses calculs « mathématiques », est en même temps la méthode la plus vulnérable, la plus perméable aux conflits d’intérêts exogènes.
Mieux : Si l’Evidence Based Practice impose dans son protocole en double aveugle que les objectifs de l’étude soient fixés à l’avance et ne puisse pas changer en cours d’étude, l’étude mise en avant et qui est favorable au Redemsivir a elle-même contourné la règle et pourrait être dénoncée comme de la « mal science » (en cours d’étude on a préféré mesurer la mortalité plutôt que la durée globale de la contamination initialement mesurée).
On pourrait considérer que cet aspect de la controverse est secondaire, mais il ne faut pas s’y tromper : on a accusé Raoult d’être un partisan de « l’anarchisme méthodologique » et la guerre de tranchée s’est bien déroulée sur la question des études, des publications, des protocoles, avant de passer aux armes lourdes des attaques judiciaires et de la peur. La méthode est un problème central de l’histoire des sciences, et si on sait à quel point le célèbre épistémologue Karl Popper a nettoyé les universités et la recherche d’un marxisme dominant dans les années 60 en l’accusant d’avoir « ossifié » une ontologie matérialiste dialectique, on ignore à quel point il a impulsé à son tour une « ossification » de la méthode scientifique… que ses successeurs et (finalement) contradicteurs Lakatos ou Feyerabend ont précisément dénoncé. Feyerabend, le célèbre auteur du (souvent mal compris) « Contre la méthode »… dont se réclame le professeur Raoult !
Sans entrer dans les détails, cette épisode récent de l’histoire des sciences met en jeu des relativistes idéalistes d’un coté (comme Bergson et tant d’autres) à des scientifiques pratiquant légitimement la philosophie pour se protéger des ingérences idéalistes. Ce dernier courant a dans ce but produit des concepts propres à distinguer le scientifique du « religieux », des « croyances », de la « métaphysique », dans le cadre de la philosophie positiviste puis positiviste logique. Pensant que la science ne pourrait progresser qu’une fois les influences extérieures supprimées (sur le plan pratique : les intérêts politico-économiques, mais aussi sur le plan théorique et idéologique), il a fallu questionner les différences fondamentales qui existeraient entre « ce qui est scientifique » et « ce qui ne l’est pas ». C’est là qu’intervient Karl Popper : Selon lui, pour caricaturer un peu, n’est scientifique que ce qui est « falsifiable » c'est-à-dire ce qui peut se prêter à des expériences susceptibles de dire clairement « c’est faux ». Mais en attaquant le marxisme, que Popper veut démasquer comme non scientifique (théorie infalsifiable puisque, dit-on, tout contradicteur est par définition un ennemi de classe), il attaque du même coup la psychanalyse et même… le darwinisme, puisque cette dernière est une théorie « historique » pour laquelle nous n’avons pas de machine à remonter le temps pour assurer sa falsifiabilité.
Si c’est donc le critère de l’expérience (et de ses modalités) qui permet de séparer le scientifique du subjectif ou du spéculatif, il faut alors mettre l’accent sur les modalités des expériences… or ce problème là traverse toute l’histoire des sciences : Peut-on imaginer un seul instant que la science ait pu progresser jusqu’à nous par cette seule épreuve de la falsifiabilité ? Que faire du statut de la « mauvaise foi », de « l’égo », de la « certitude » des savants dans une telle histoire… ces défauts qui ont pourtant marqué les plus grands !
Et surtout, puisqu’à notre époque la recherche a considérablement changée, comment continuer à appliquer le formalisme spontané des mathématiciens et jusqu’à un certain point des physiciens (puisque le positivisme logique à l’origine de ce type de formalisme « physicaliste » fut contemporain de la dernière grande révolution de la physique au siècle dernier) à la nouvelle révolution scientifique de ce siècle, celle de la biologie, science plus jeune mais tout aussi complexe ?
Comment considérer de grandes populations de malades à travers le monde, une extrême biodiversité de coronavirus, à l’aune de méthodes qui se prêtent plus opportunément à des particules élémentaires ou des systèmes solaires ? En niant la capacité du virus à évoluer à travers le filtre d’une sélection naturelle (tendance à l’augmentation de la contagiosité et à la baisse de la virulence pour épargner les propagateurs humains et se développer de mieux en mieux), comment avancer que plus grands sont les échantillons, plus forte est la preuve statistique ? Est-on bien sûr qu’à cette taille d’échantillon (et donc cette diversité humaine) nous avons considéré « tous » les facteurs influençant le résultat final avant de conclure ?
Faute de « pratique théorique », avec une théorie ne se nourrissant plus de pratique ni de « tâtonnement » mais de « mesures », ne s’exclue t-on pas volontairement du champ de ce qu’on appelle le progrès scientifique ?
Pour un biologiste, la méthode de randomisation en double aveugle, utile évidemment jusqu’à un certain point, n’est pas intangible et doit tenir compte de la complexité du terrain et de son histoire naturelle : En revanche, la production d’une conclusion simple appliquée à une question simple (« ça marche ou non ») est une exigence politique plutôt que scientifique : Il s’agit pour un politique pour qui ces questions sont ésotériques, de se protéger des plaintes éventuelles, plutôt qu’à sauver des vies en période de crise sanitaire et d’état d’urgence.
Élève de Popper, Feyerabend s’est précisément attaché à montrer qu’en histoire des sciences, jamais le principe de « falsifiabilité » n’a prévalu pour avancer et changer de paradigme. Au contraire, par « hypothèses ad hoc » ou « expériences de pensée », voire carrément par le « bon sens », les grands savants ont toujours tenu fermement ce qu’ils avançaient, y compris parfois contre les « preuves scientifiques » de l’époque.
Le plus grand, Galilée, avait par exemple affirmé que c’est la Terre qui tourne autour du soleil plutôt que l’inverse, contre l’ensemble de la communauté scientifique, parce que la trajectoire des planètes, déjà connue, devenait elle-même circulaire plutôt qu’hélicoïdale et « contre-intuitive ». Mais à ce titre ses pairs ont rétorqué que ses calculs ne constituaient pas une preuve mais une contre théorie au minimum plus « esthétique », de « bon sens » contre la théorie géocentrique. Ces derniers avaient en main une preuve de leur modèle : si la Terre tournait sur elle-même, une pierre tombant d’une tour ne tracerait pas une trajectoire parfaitement verticale mais déviée… or la verticale était parfaite. Cette preuve, Galilée l’a admise, faute de théorie de la pesanteur newtonienne, et a cherché maladroitement à l’intégrer sans lui tordre le cou, et finalement sans convaincre… par sa seule « mauvaise foi » contre les faits. Ainsi Galilée lui-même est allé contre la « falsifiabilité » de son modèle, et il avait raison !
De la même façon on indiqua à l’évolutionniste Geoffroy Saint-Hilaire au 19ème siècle que les espèces ne pouvaient évoluer puisque les crocodiles momifiés de l’Egypte antique étaient identiques à leurs descendants actuels… Là encore, faute d’expérience possible, les évolutionnistes tinrent bon, contre Popper pourrait-on dire.
Feyerabend en conclut qu’il n’est pas utile de « légiférer » sur la meilleure méthode permettant à la science d’avancer, puisque qu’il existe une foule de méthodes possibles et que les savants n’ont jamais attendu les épistémologues pour travailler et découvrir. Son « Contre la méthode » affirme, pour caricaturer, un « anarchisme méthodologique », non pas pour refuser la méthode mais au contraire pour éviter de légiférer par principe sur elle, pour sauver un « pluralisme » des méthodes. Le mot « anarchisme » n’est pas anodin, puisque s’il faut que la science se démarque des circonstances, politiques ou économiques, voire idéologiques, il faut en refuser le « pouvoir » (d’où le terme « anarchisme » sans doute un peu maladroit mais qui donne une intention claire). Plutôt l’anarchisme que la « neutralité », qui –elle- est notoirement stérile (y compris par son infalsifiabilité, puisque si rien n’est « affirmé », rien ne peut non plus être « infirmé »).
Ce formalisme nous a fait oublier un élément de l’histoire des sciences, difficile certes à admettre, mais pas moins fondamental : L’incrédulité et la mauvaise foi des savants antidarwiniens, et même des créationnistes, pousse les évolutionnistes à perfectionner (par un retour de mauvaise foi d’ailleurs, tout à fait salutaire) leurs théories. De la même façon que la théorie de la tectonique des plaques initialement proposée par Wegener en 1912 a mis 50 ans à s’imposer face aux contradictions féroces des géologues fixistes qui trouvaient sa théorie totalement absurde et indémontrable… et sa validation finale n’a pourtant pas attendu l’arrivée du GPS récemment ! C’est bien l’affrontement, la confrontation permanente, la brutalité des attaques sur les failles de toute théorie nouvelle, qui fait avancer la science. Autrement dit c’est plus l’affrontement des certitudes et non le vertueux « doute scientifique » des grands savants, qui a construit pas à pas les connaissances dont nous disposons aujourd’hui.
Même en Union Soviétique, connue ici par caricature et déformation anticommuniste (ce qui est bien une influence politique en science) pour avoir « tordu le réel à sa volonté » matérialiste dialectique jusque dans les sciences… des savants politiquement de droite comme Pavlov ou Vernadski résonnaient pourtant dialectiquement et furent honorés par l’Etat comme des « héros de la science soviétique » contre des savants adhérant au PCbUS mais raisonnant parfois avec le formalisme de l’occident quand il était question d’agrochimie, d’eugénisme ou de génétique formelle.
Un autodidacte extrêmement mauvais sur le plan de la « méthodologie » (et lourdement condamné à l’Ouest pour cela comme indiscutable charlatan) avait même découvert bien avant tous les généticiens d’aujourd’hui les capacités épigénétiques de transmission réversible des caractères acquis par l’habitude dans un milieu donné. Pourquoi ? Tout simplement parce que cette éventualité était ici rejetée par principe comme attaquant le « dogme central de la génétique moléculaire », triomphant dans la deuxième moitié du 20ème siècle. Il s’appelait Trofim Lyssenko… et personne n’avait pris la peine de retenter les expériences de transmission de l’acquis tant elles étaient « complexes » (qui aurait tenté à l’Ouest de créer un stress sur des semences sur de nombreuses générations successives avant d’observer une telle transmission jamais observée dans des circonstances plus simples ?). Là encore la falsifiabilité fut trompeuse… ou très malicieuse.
Evidemment, ce serait faire offense au professeur Raoult, qui est indéniablement très compétent y compris en matière de méthodologie, que de le comparer à l’horrible Lyssenko ! Il reste que sur le fond, nous devrions tirer les enseignements de ce pied de nez de la pratique sur la théorie, à l’époque du dépassement de la génétique en épigénétique (par négation du dogme central de la génétique moléculaire qui a physicalisé et formalisé à l’extrême la biologie)… les suites de cette terrible affaire Raoult qui ne manqueront pas de rebondissements confirmeront sans doute l’extrême intérêt de cette affaire jusque dans l’histoire des sciences et l’épistémologie. Il y a fort à parier que les biologistes des jeunes générations auront des choses à dire jusqu’à ce niveau là, encore trop ossifié par les « méthodologistes » mathématiciens et physico-chimistes. Après Popper et le néopositivisme physicaliste, pourquoi pas, à l’aube de cette révolution de la biologie épigénétique, revenir à des épistémologues moins physiciens et plus naturalistes (et donc plus dialecticiens) comme Bachelard, Canguilhem et pourquoi pas, contre l’ossification méthodologique… l’auteur controversé de la célèbre « dialectique de la nature », Friedrich Engels !