DissertationsEnLigne.com - Dissertations gratuites, mémoires, discours et notes de recherche
Recherche

La philosophie des sciences, Dider Raoult

Résumé : La philosophie des sciences, Dider Raoult. Rechercher de 53 000+ Dissertation Gratuites et Mémoires

Par   •  24 Août 2020  •  Résumé  •  7 921 Mots (32 Pages)  •  602 Vues

Page 1 sur 32

LA PHILOSOPHIE (DES SCIENCES) DE DIDIER RAOULT

Durant la crise du coronavirus, un personnage s’est particulièrement illustré : Didier Raoult. Médecin et chercheur de renom, le directeur de l’IHU Méditerranée a défrayé la chronique par ses déclarations pour le moins surprenantes concernant le développement du virus et en défendant envers et contre tous « son » protocole de traitement à base d’hydroxychloroquine. Il lui a été notamment reproché de battre en brèche les procédures actuelles de validation des théories scientifiques qui, dans ce domaine, reposent sur un certain type de test dit « randomisé ». Auteur en 2015 d’un livre intitulé De l’ignorance et de l’aveuglement, pour une science postmoderne, il invitait récemment dans une tribune parue chez les Échos ses détracteurs et tous ceux qui prennent la parole dans les médias au nom de la science à lire trois ouvrages important de la philosophie des sciences l’ayant influencé. Et non des moindres. Ces trois livres, en effet, constituent des jalons importants dans l’histoire récente de cette branche de la philosophie qui, comme son nom l’indique, s’intéresse au fonctionnement de cette vénérable institution que nous nommons « la science ». Comment fonctionne-t-elle ? À quel type de connaissance peut-elle prétendre ? Qu’est-ce qui est commun aux disciplines qui la composent ? Est-elle si « neutre » et objective que cela ? Quels sont les critères permettant de distinguer un discours scientifique d’un discours non-scientifique ? Décrit-elle le « réel » ? Sans prétendre bien sûr répondre de manière exhaustive à ces questions, nous allons nous intéresser à quelques traits essentiels des conceptions de la science défendues par les auteurs auxquels Raoult fait référence et qui ont produit, sans aucun doute, parmi les travaux les plus importants du 20ème siècle dans ce domaine. Sources principales du cours David Hume, Enquête sur l’entendement humain Karl Popper, Conjectures et réfutations Thomas Kuhn, La structure des révolutions scientifiques Paul Feyerabend, Contre la méthode Alan Chalmers, Qu’est-ce que la science, chapitre 4, 5,6, 8, 12 Préambule : où en étions-nous aux débuts du 20ème siècle ? Au cours de son histoire, la philosophie des sciences s’est structurée autour de plusieurs grands axes dont voici sans doute les deux plus importants. Le premier, c’est le rationalisme. Il repose sur le principe selon lequel les théories scientifiques sont établies par la raison humaine et découlent des principes des mathématiques, de la logique. L’un des fondateurs de ce courant est Descartes qui, dans le Discours de la méthode et les Principes de la philosophie propose une méthode d’investigation reposant essentiellement sur la déduction et, seulement dans un second temps, sur l’expérience. C’est cette conception qui est vraisemblablement au principe de la « Révolution scientifique » entamée par Galilée et Copernic, puis par Newton. Galilée considérait par exemple que « la nature est un livre écrit en langage mathématique ». Deux interprétations possibles. Ou bien ce langage est celui de la nature elle-même que le physicien doit essayer de décrypter. Ou bien ce langage est celui de l’homme qui fait des mathématiques et est plus modestement le seul langage dont nous disposons pour rendre les faits naturels intelligibles. Dans la continuité de cette tendance, le philosophe français Auguste Comte, père du « positivisme scientifique » affirme au début du 20ème siècle que le monde peut se réduire à des phénomènes explicables par des lois qui s’expriment en langage mathématique. Le second grand courant est celui de l’empirisme. Très inspiré par l’œuvre d’Aristote et s’étant beaucoup développé dans le monde anglo-saxon, il pose comme principe premier la dépendance de nos connaissances à l’expérience. Dérivant des expériences que nous faisons du monde, les énoncés scientifiques sont donc construits et mis à l’épreuve par l’expérimentation, qui consiste à donner un cadre méthodologique à l’expérience. Les preuves obtenues, une fois rassemblées en nombre suffisant, aboutissent à la formulation de théories scientifiques qui, si elles sont acceptées par la communauté scientifique, deviennent une base pour les explications suivantes. La méthode expérimentale domine les sciences empiriques depuis au moins le 17ème siècle et repose sur l’induction. Le problème étant celui dont nous avions parlé, à savoir qu’un contre-exemple peut mettre en danger tout un édifice théorique et aboutir à une crise scientifique. Ce développement de l’empirisme a conduit la plupart des philosophes à réviser à la baisse leur « foi » en la vérité des sciences pour au moins trois motifs : - Les sciences purement déductives comme les mathématiques reposent sur des axiomes nondémontrés. Depuis Euclide, ces axiomes sont considérés comme des « évidences » permettant, une fois établis, de faire des démonstrations sur la base de prémisses stables. Le problème, c’est que certains axiomes finissent par être réfutés. C’est le cas du cinquième postulat d’Euclide selon lequel « deux // ne se touchent jamais » qui, lorsqu’il a été mis en doute par Carl Gauss, puis atomisé par Bernard Riemann, a déclenché une crise monstrueuse au sein du monde mathématique au point de provoquer la création de nouvelles géométries dites « non-euclidiennes ». - Plus généralement, les sciences sont incapables de définir leurs propres concepts de base comme le mouvement, l’espace, le temps, le nombre, le point ou la ligne. En ce sens, disait Heidegger, « la science ne pense pas ». Pour lui, c’était à la philosophie de « penser » à ces questions et c’est ce que, par exemple, Aristote tente de faire dans la Physique. - Les sciences qui fonctionnent par induction ou par ce qu’on appelle la méthode hypothéticodéductive ne peuvent prétendre dévoiler le fonctionnement « réel » de la nature. Toujours réfutables par de nouvelles observations, elles sont par définition instables et, pour un auteur comme David Hume, font un saut injustifié quand elles prétendent que leurs théories décrivent la structure réelle de l’univers. On ne peut pas démontrer que « le soleil ne se lèvera pas demain » car, pour Hume, on ne peut pas démontrer l’impossibilité d’un fait concevable par la raison. Dans son Tractatus Logico-Philosophicus, le logicien Ludwig Wittgenstein ira encore plus loin en affirmant que « Le fait que l’univers puisse être décrit par la mécanique newtonienne n’énonce rien quant à l’univers lui-même, mais bien le fait qu’il puisse être décrit de telle façon par cette théorie ». Commenté [a1]: On formule une hypothèse afin d’en déduire des conséquences observables futures ou d’expliquer des observations passées. Si les observations concordent avec la théorie, elle acquière une certaine validité) C’est avec ce contexte à l’esprit que nous pouvons désormais aborder les trois auteurs dont se réclame Didier Raoult : Thomas Kuhn, Karl Popper et Paul Feyerabend. Par un heureux hasard, tous ont travaillé sur des sujets proches tenant, pour résumer, à deux questions : Comment la science progresse ? Et sur quelle base considère-t-on une théorie comme « scientifique » ou « valide » ` 1) Karl Popper : le falsificationnisme pour les (pas si) nuls (que ça) Né en 1902 à Vienne, Karl Popper s’est essentiellement consacré à déboulonner la thèse épistémologique dominante des années 50, le « vérificationnisme ». Née également à Vienne autour d’auteurs comme Rudolph Carnap, Wittgenstein ou Moritz Schlick, elle reposait sur l’idée qu’un énoncé n’est susceptible d’être vrai ou faux, c’est-à-dire d’avoir une signification si et seulement s’il est vérifiable par l’expérience. C’est ce qu’on appelle parfois l’empirisme logique. Les énoncés qui ne sont pas vérifiables dans le monde réel sont ou bien considérés comme logiques, mais « vides de sens », ou bien vides de sens et « absurdes ». Les énoncés poétiques ou métaphysiques ne nous disent rien du monde, et n’ont aucune valeur de vérité, mais sont des énoncés qui portent sur le langage lui-même. Si Popper a côtoyé brièvement ces auteurs, il n’y a jamais vraiment adhéré. Son travail se divise en deux axes principaux définis dans Les deux problèmes fondamentaux de la théorie de la connaissance : - Le problème de l’induction (dit « problème de Hume ») - Le problème de la démarcation (dit « problème de Kant ») entre les théories scientifiques et les théories non-scientifiques comme la métaphysique. La genèse de cette réflexion de Popper se trouve dans le contexte des années 50, ou le marxisme, la psychanalyse, la psychologie adlérienne et la théorie de la relativité d’Einstein font fureur. Ce qu’il remarque, c’est que les trois premières prétendent à la scientificité alors que, de toute évidence, elles relèvent plutôt du mythe pour lui (La quête inachevée). Einstein, au contraire, le marque durablement. Ce dernier affirmait en effet que sa théorie serait absurde si elle ne pouvait passer certains tests. Cette attitude critique consistant à admettre qu’on puisse infirmer sa théorie devient pour lui le fondement de la pratique scientifique. Sa seconde intuition, c’est que la connaissance est majoritairement produite par déduction sur une base inductive qui, comme Hume l’avait montré, ne peut prétendre à décrire le réel est invérifiable dans l’absolu. En effet, le nombre d’expériences nécessaires pour prouver la « vérité » d’une théorie obtenue par induction est infini. Il faudrait pouvoir vérifier tous les faits qui confirment la théorie jusqu’à la fin des temps, d’où le titre de « quête inachevée ». Qu’en conclue-t-il ? Que les théories scientifiques abstraites sont antérieures aux faits dont elles prétendent être tirées. Les scientifiques partent de théories abstraites qu’ils essaient vainement de confirmer par l’expérience. Puisqu’aucune théorie ne peut prétendre à une vérité complète à partir d’une méthode inductive, alors il est impossible de « vérifier » une théorie avec un nombre limité de faits particuliers. L’induction est donc un mythe certes nécessaire à l’élaboration de toute connaissance scientifique, mais qui ne peut permettre d’évaluer les théories en tant que telles. Par ailleurs, si la vérification est insuffisante, alors cela veut dire qu’on trouvera toujours des faits pour corroborer une théorie, même si elle est complètement folle. Comment faire ? Quel peut bien être le critère de démarcation entre la science et le mythe ? La solution géniale que va trouver Popper pour évaluer les théories et distinguer celles qui sont scientifiques de celles qui ne le sont pas se trouve dans son ouvrage Conjectures et Réfutations. Popper y propose de les évaluer à partir de tests permettant de prouver qu’elles sont potentiellement réfutables. Pour qu’une théorie soit scientifique, écrit-il, elle doit comporter des « falsificateurs potentiels », c’est-à-dire des énoncés qui pourraient la réfuter. La science doit donc assumer qu’elle fonctionne de manière déductive et procéder en trois temps : a) Énonciation de la théorie b) Déduction des conséquences c) Expériences susceptibles de réfuter la théorie. Karl Popper, Conjectures et réfutations, 1963 1) Si ce sont des confirmations que l’on recherche, il n’est pas difficile de trouver, pour la grande majorité des théories, des confirmations ou des vérifications. 2) Il convient de ne tenir réellement compte de ces confirmations que si elles sont le résultat de prédictions qui assument un certain risque ; autrement dit, si, en l’absence de la théorie en question, nous avions dû escompter un événement qui n’aurait pas été compatible avec celle-ci – un événement qui l’eût réfutée. 3) Toute « bonne » théorie scientifique consiste à proscrire : à interdire à certains faits de se produire. Sa valeur est proportionnelle à l’envergure de l’interdiction. 4) Une théorie qui n’est réfutable par aucun événement qui se puisse concevoir est dépourvue de caractère scientifique. Pour les théories, l’irréfutabilité n’est pas (comme on l’imagine souvent) vertu mais défaut. 5) Toute mise à l’épreuve véritable d’une théorie par des tests constitue une tentative pour en démontrer la fausseté (to falsify) ou pour la réfuter. Pouvoir être testé c’est pouvoir être réfuté ; mais cette propriété comporte des degrés : certaines théories se prêtent plus aux tests, s’exposent davantage à la réfutation que les autres, elles prennent, en quelque sorte, de plus grands risques. 6) On ne devrait prendre en considération les preuves qui apportent confirmation que dans les cas où elles procèdent de tests authentiques subis par la théorie en question : on peut donc définir celles-ci comme des tentatives sérieuses, quoique infructueuses, pour invalider telle théorie […]. On pourrait résumer ces considérations ainsi : le critère de la scientificité d’une théorie réside dans la possibilité de l’invalider, de la réfuter ou encore de la tester. Le critère est donc la réfutabilité. Il veut que l’observation d’un seul fait expérimental ne corroborant pas la théorie la réfute. Par exemple faire l’expérience qu’il existe un seul cygne noir réfute la théorie selon laquelle tous les cygnes sont blancs. Autrement dit, tout repose sur ces « expériences cruciales » permettant de qualifier ou non une théorie de scientifique. Pour que cela fonctionne, il faut que la théorie soit assez claire pour permettre des prévisions précises. Si elle est vague et fait des prévisions qui laisse trop de place à l’interprétation (comme la divination), alors elle est non-réfutable et donc non-scientifique. C’est du bon sens ! La conception de Popper correspond en effet à la vie scientifique, ou les théories qui ne peuvent pas être testées sont suspectes et ne peuvent donc être approuvées par la communauté. Tant qu’une théorie réfutable n’est pas réfutée, elle est donc « corroborée », ce qui ne veut ni dire qu’elle est « vraie », ni « vérifiée ». Elle est simplement valable jusqu’à preuve du contraire. On est dans une perspective ou on vise « une approximation de la vérité » et non la Vérité ultime. C’est ce que Popper appelle la « vérisimilitude » (vraisemblance). Ainsi, la science progresse par conjectures (hypothèses) et réfutations, les connaissances existantes étant remplacées par des connaissances « un peu plus vraies », un peu plus complètes et permettant d’expliquer plus de faits. Une théorie scientifique n’est jamais définitive, mais selon Popper, nous nous rapprochons petit à petit de cette objectivité inatteignable. Une théorie irréfutable, au contraire, appartient nécessairement au domaine de la « fausse science ». La métaphysique, mais aussi la psychanalyse ou le marxisme en feront les frais, puisqu’il les rangera du côté des fausses sciences alors que ces dernières prétendent toutes à la scientificité. Or, selon lui, une théorie qui est capable d’expliquer tout et son contraire ne peut être appelée scientifique, ce qui ne veut pas dire que ces disciplines sont inutiles. Les « énoncés métaphysiques » conservent un intérêt car ils sont au cœur de la réflexion des scientifiques. Contrairement aux membres du Cercle de Vienne, qui proposaient d’évacuer purement et simplement ces énoncés du champ de la réflexion épistémologique, Popper défend l’idée que toute science se fonde à la base sur des engagements métaphysiques qui, au fur et à mesure, devront être éliminés ou transformés en énoncés falsifiables. Quelques problèmes : - Cette vision fonctionne plutôt bien dans les sciences dures, comme la physique ou la chimie. Mais certaines théories y ont été acquises par induction. C’est indéniable. Par exemple la loi de Hubble, qui décrit la relation entre la vitesse de déplacement et la distance des galaxies et a contribué à montrer que l’Univers est en expansion a été construite à partir d’observations dans les années 20 permises par le télescope du même nom. - Par conséquent si la théorie n’est pas strictement déductive, alors une expérience cruciale peut survenir sans que la théorie s’effondre. Par exemple de nombreuses expériences contraires à la théorie de Newton ne sont pas parvenues à en venir à bout. Au contraire, les conclusions de ces expériences ont été considérées comme fausses. « Si l’expérience contredit la théorie, c’est qu’il y a un problème avec l’expérience », en somme. - Dans les sciences sociales, c’est encore plus compliqué. Ces disciplines se construisent également sur un mode principalement inductif, bien qu’elles reposent souvent sur des énoncés généraux. On ne peut pas y faire de prédictions exactes et quantifiables (par exemple en science politique) et il arrive régulièrement que de nouveaux faits viennent enrichir les théories. - Enfin, Popper n’a pas du tout pris en compte le contexte social et culturel de production des théories scientifiques. Par exemple, on sait que les travaux de Karl Marx comportent des observations exactes. Pour autant, il y a un tel mélange des registres économiques, philosophiques et sociaux dans son œuvre qu’il devient très difficile de l’évaluer. Par ailleurs, certains aspects du marxisme peuvent être testés, comme la théorie de la « baisse tendancielle du taux de profit ». Pour répondre à la question de savoir pourquoi aucun économiste ne se charge de faire ce test, on ne peut donner que des explications politiques ou sociologiques. De même, Popper a reconnu que la psychanalyse contenait des théories psychologiques intéressantes auxquelles on pourrait peut-être donner une forme réfutable. Mais cela ne s’est pas produit car la communauté des psychiatres a exclu d’office la psychanalyse du champ de la science, la condamnant à la marginalité et donc à l’impossibilité d’être testée et évaluée par les autorités compétentes. On le voit très bien dans la série Freud d’ailleurs. À la suite de Popper, d’autres auteurs ont tenté d’intégrer cette dimension sociale, culturelle et politique dans leur schéma d’explication de l’histoire des sciences. Le plus célèbre est Thomas Kuhn, la seconde référence du docteur Raoult. 2) Thomas Kuhn : paradigm shift Né en 1922 dans l’Ohio, Kuhn est un philosophe et historien des sciences américain qui s’est principalement intéressé au concept de « révolution scientifique ». Un terme forgé quelques années auparavant par le français Alexandre Koyré. Pour Koyré, la science a subi au cours de son histoire une transformation radicale. Entre le XVIème siècle et le XVIIème siècle, nous serions passé selon lui du « monde clos » de la physique d’Aristote et de Ptolémée à « l’univers infini » de Galilée et de Newton. Ces nouvelles théories ne se sont donc pas contentées de décrire de nouveaux phénomènes, mais ont ébranlées les bases métaphysiques de la science. C’est donc une vision discontinuiste de l’histoire des sciences. Kuhn va reprendre cette hypothèse et en faire le principe général de fonctionnement de la science. Dans son ouvrage La structure des révolutions scientifiques, paru en 1962, il développe la thèse selon laquelle la science ne progresse pas par accumulation de connaissances, mais par des ruptures plus ou moins brutales. Ces ruptures, qu’il appelle « révolutions » comme Koyré, correspondent à un renversement radical des représentations du monde partagées des savants. Ces derniers, à un instant T, perçoivent la réalité en fonction de certaines croyances scientifiques et sociales, d’un certain point de vue sur la nature. Ce point de vue repose à la fois sur des théories, mais aussi des valeurs partagées et des manières particulières de faire de la science qui, ensemble, forment ce qu’il appelle un « paradigme ». Pour illustrer cette idée, il reprend à Wittgenstein la fameuse image du « canard-lapin ». Selon le regard porté au dessin, on peut effectivement y reconnaître l’un ou l’autre de ces animaux. Pour Wittgenstein, quelqu’un qui n’aurait jamais vu de lapin et n’aurait pas la moindre idée de ce qu’est cet animal ne verrait sans doute que le canard. Il ne percevrait pas ce second aspect de l’image. Texte 2 : Thomas Kuhn, La structure des révolutions scientifiques, Champs-Flammarion, 1962-1983, pp. 121-123, 124, 133-134. Le passage d'un paradigme en état de crise à un nouveau paradigme d'où puisse naître une nouvelle tradition de science normale est loin d'être un processus cumulatif, réalisable à partir de variantes ou d'extensions de l'ancien paradigme. C'est plutôt une reconstruction de tout un secteur sur de nouveaux fondements, reconstruction qui change certaines des généralisations théoriques les plus élémentaires de ce secteur et aussi nombre des méthodes et applications paradigmatiques. Durant la période transitoire, il y a chevauchement, important mais jamais complet, entre les problèmes qui peuvent être résolus par l'ancien et le nouveau paradigme. Mais il y a aussi des différences décisives dans les modes de solution. Quand la transition est complète, les spécialistes ont une tout autre manière de considérer leur domaine, ses méthodes et ses buts. (…) Que sont les révolutions scientifiques et quelle est leur fonction dans le développement de la science ? [...] les révolutions scientifiques sont ici considérées comme des épisodes non cumulatifs de développement, dans lesquels un paradigme plus ancien est remplacé, en totalité ou en partie, par un nouveau paradigme incompatible. Commenté [a2]: Du grec paradeigma « modèle », « exemple » Le concept de paradigme permet à Kuhn de réfuter l’idée selon laquelle les scientifiques pourraient porter un regard neutre ou objectif sur la nature. Si jamais le paradigme change, remarque-t-il, le regard va aussi changer car, selon lui, les paradigmes sont incommensurables (c’est-à-dire qu’ils n’ont rien en commun). Lorsqu’un paradigme échoue à expliquer certains phénomènes ou à répondre à certaines critiques qu’il appelle des « anomalies », il finit par être progressivement remplacé par un autre paradigme proposant des solutions à ces anomalies, mais aussi d’autres problèmes à traiter. Ce basculement prend la forme d’une « crise » au sein de la communauté scientifique auquel seule la résolution du problème et l’adoption d’un nouveau paradigme (paradigm shift) met fin. La crise est d’autant plus violente que, plus un paradigme dure, plus il a tendance à se fossiliser, à devenir une « tradition », voire un dogme difficile à remettre en question. Une fois remplacé, on revient à la « science normale » …jusqu’à ce que de nouvelles anomalies émergent. C’est donc une conception cyclique du fonctionnement de la science Remarque : On peut observer que Kuhn s’oppose à Popper. Pour lui, les théories scientifiques ne sont pas rejetées quand elles ont été réfutées, mais quand elles ont pu être remplacées par d’autre théories concurrentes. Ce remplacement est pour lui un phénomène non seulement scientifique, mais aussi social et politique car il engage la communauté des scientifiques. Il arrive même parfois que plusieurs paradigmes coexistent en même temps au sein d’un même discipline sur fond d’opposition et de défiance réciproques. Avec ce modèle, Kunh a rompu radicalement avec l’approche dominante de l’histoire des sciences dans les années 50, qui reposait sur le principe de l’accumulation des savoirs et les découvertes individuelles. Avec Koyré, il propose une nouvelle historiographie décrivant une science dont la cohérence est seulement interne, et où la production des savoirs n’est pas une affaire individuelle, mais celle d’un groupe. Pour autant, il n’est pas un « relativiste » au sens où il considèrerait que toutes les théories scientifiques se valent. Bien au contraire, Kuhn écrit que « les théories scientifiques de dates récentes sont meilleures que celles qui les ont précédées sous l’aspect de la solution des énigmes ». La position de Kuhn est double. D’un côté, il admet que les valeurs de la communauté scientifique ont une incidence profonde dans les choix théoriques. La science possède donc une face idéologique et politique, qu’un auteur comme Bruno Latour a abondamment décrit après lui. Mais de l’autre, il considère qu’il y a des critères épistémologiques qui résistent à l’épreuve du temps, comme la précision des prédictions ou la rationalité interne des théories. Le falsificationnisme de Popper comme l’historiographie de Kuhn nous montrent que le progrès scientifique est loin d’être continu. La scientificité existe, mais elle est toujours menacée par des réfutations ou des anomalies possibles. La science ne nous propose pas de vérités acquises pour toujours, y compris dans les disciplines les plus abstraites comme les mathématiques. Pour progresser, cette dernière n’a pas d’autre choix que de se remettre perpétuellement en question et à résister par tous les moyens à la tentation du dogmatisme scientifique et des brouillages politiques. Didier Raoult, en s’affranchissant des procédures actuelles de la médecine, semble dénoncer un « paradigme dominant » dont les normes de scientificité ne lui conviennent pas. Il s’est donc logiquement aliéné la plupart de ses pairs. Est-il en train pour autant d’initier un changement de paradigme ? Pour cela, il faudra qu’il propose de nouvelles méthodes et que ces dernières finissent par remplacer la vision actuelle des choses. 3) Feyerabend : l’anarchisme épistémologique Le denier auteur de référence de Raoult, dont nous pouvons déjà comprendre en lisant les deux premiers qu’il n’est pas un scientifique dogmatique, est allé encore plus loin dans la radicalité. Outre une méfiance envers toute prétention à la « vérité » scientifique héritée de Popper et Kuhn, sa tendance à communiquer ses résultats ou des hypothèses incertaines au grand public avant publication, sa dénonciation du dogmatisme des chercheurs détachés de la pratique du terrain et, enfin, sa charge « contre la méthode » assumées dans plusieurs interviews et tribunes... Tout converge vers un nom, celui de Paul Feyerabend. Autrichien de naissance, Feyerabend est un personnage à part dans l’histoire de la philosophie des sciences. Académicien brillant, professeur à Berkeley, il est à la source d’une théorie de la connaissance d’une radicalité extrême. Il a été l’élève de Wittgenstein et l’ami de Popper et, surtout, de son assistant Imre Lakatos. Ils’opposera aux deux en développant une théorie « anarchiste » et « dadaïste » de la connaissance. Le principe ? Rejeter tout dogmatisme méthodologique, abandonner la prétention des sciences à l’objectivité et le problème de la démarcation. Contre la méthode : tout est bon ? Initialement, Feyerabend voulait écrire un dialogue avec Lakatos où ils s’affronteraient sur la question du rationalisme. La mort subite de ce dernier en 1974 n’a pas permis la réalisation de ce livre, mais Feyerabend publiera sa partie du dialogue. Nommé Contre la méthode, cet opuscule a provoqué un ouragan dans le monde philosophique (et dans l’esprit du docteur Raoult). Dans ce livre, il soutient d’abord qu’il n’existe pas de méthode scientifique immuable qui garantirait la validité incontestable des recherches. Toute méthode fixe, selon lui, restreint le progrès et bâillonne l’imagination du scientifique. Il faut donc réintroduire une dose d’anarchisme pour permettre à la science de progresser. Pour illustrer cette thèse, il montre que les règles de la philosophie des sciences ont été allègrement violées par Copernic, ce qui ne l’a pas empêché de révolutionner la physique. Il généralise ce cas en montrant que ces fameuses règles ont été violées tout au long de l’histoire des sciences et que, si elles avaient été respectées, nous aurions stagnés. De là, Feyerabend considère que les théories nouvelles ne sont jamais acceptées pour avoir respecté certaines procédures (comme la réfutabilité), mais au contraire car ceux qui la soutenaient se sont servi de toutes les astuces possibles (arguments rationnels, propagande, artifices rhétoriques) pour faire avancer leurs idées. Paul Feyerabend, Contre la méthode, Esquisse d’une théorie anarchiste de la connaissance, 1979 L’idée que la science peut, et doit, être organisée selon des règles fixes et universelles est à la fois utopique et pernicieuse. Elle est utopique car elle implique une conception trop simple des aptitudes de l’homme et des circonstances qui encouragent, ou causent leur développement. Et elle est pernicieuse en ce que la tentative d’imposer de telles règles ne peut manquer de n’augmenter nos qualifications professionnelles qu’aux dépens de notre humanité. En outre, une telle idée est préjudiciable à la science, car elle néglige les conditions physiques et historiques complexes qui influencent en réalité le changement scientifique. Elle rend notre science moins facilement adaptable et plus dogmatique (…) Des études de cas comme celles des chapitres précédents (…) témoignent contre la validité universelle de n’importe quelle règle. Toutes les méthodologies ont leurs limites, et la seule « règle » qui survit, c’est : « Tout est bon » Par ce principe provocateur mettant en relief le fait que, pour l’auteur, aucune méthode existante ne permet de rendre compte de la nature de la science. Si on entend par méthode des règles qui permettent d’orienter les choix et les décisions, Feyerabend a raison. En situation réelle, la science est un processustrès complexe, dont le développement est souvent imprévisible. Ainsi, il est vain d’espérer trouver un principe indiquant avec certitude aux scientifiques, dans un certain contexte, d’adopter telle ou telle méthode. Cela est d’autant plus vrai dans un contexte de bouleversement ou, comme disait Kuhn, de « crise » scientifique dans la mesure où les règles en vigueur se brouillent. Comme son ami Lakatos, il considère que les méthodes de recherches ne fournissent que des critères pour aider le scientifique à évaluer la situation dans laquelle il se trouve, mais « elle ne contiennent pas de règles qui lui disent ce qu’il faut faire ». Les scientifiques doivent donc s’en libérer. On a donc une forme de pragmatisme, une théorie valide est une théorie qui a réussi à se faire reconnaître et à produire des résultats scientifiques intéressants. Pour autant, il ne faut pas non plus prendre ce « tout est bon » trop largement. Feyerabend, dans un article paru dix ans avant Contre la méthode intitulé « Réalisme et instrumentalisme » distingue deux attitudes : celle du scientifique « respectable » et celle du scientifique « extravagant ». Les premiers, contrairement à l’opinion commune, ne garantissent pas du tout le succès de la démarche et les seconds ne suggèrent pas que des choses improbables et absurdes. « Nous ne savons jamais à l’avance si une théorie aura un avenir ou si elle tombera dans les oubliettes », souligne-t-il. Ce qui distingue ces deux attitudes, c’est plutôt la nature de la recherche dont il est question une fois adopté un certain point de vue. L’extravagant, écrit-il, se contente de défendre sa vision des choses sans essayer d’en tester la pertinence. Il refuse d’admettre les objections qu’on lui fait. Le respectable, au contraire, prend en compte ces objections, va dans les détails, considère l’état global de la science à ce moment précis. Le contenu de la théorie n’a finalement pas grande importance dans cette distinction. « Si quelqu’un pense qu’il faut donner une nouvelle chance à Aristote, soit, attendons les résultats ! », s’exclame-t-il en ce sens. À condition qu’il ne s’agisse pas d’une banale reprise, ce qui n’aurait pas grand intérêt aux vues des progrès entamés dans les sciences depuis l’antiquité mais, précise-t-il, de le remettre au goût du jour en l’adaptant au présent et à l’état actuel de la physique. Si donc quelqu’un veut contribuer à telle ou telle science, il n’a pas besoin de connaitre les méthodes contemporaines de recherche, mais seulement les différentes théories en présence et l’histoire de la discipline. L’anarchisme épistémologique n’est donc pas si anarchiste que ça, il ne fait pas n’importe quoi et tout n’est pas bon dans tous les cas. L’incommensurabilité des théories scientifiques Par « incommensurabilité », on entend l’idée selon laquelle deux domaines sont rigoureusement séparés et non-comparables. On ne peut pas les mesurer entre eux. Par exemple, en maths, deux grandeurs sont dites incommensurables quand il n’y a pas d’unité permettant de les mesurer ensemble, ce qui revient à dire que le rapport entre ces grandeurs est ce qu’on appelle un « nombre irrationnel ». Ainsi, la diagonale et le côté d’un carré sont incommensurables car le rapport de leur longueur est égal à √2. Ce qui est incommensurable, c’est aussi ce qui est trop grand pour être mesuré, comme la bêtise de certains. Dans le domaine de la philosophie de sciences, l’incommensurabilité décrit, depuis Kuhn, le statut de deux paradigmes successifs dans une même science. Ces paradigmes sont incommensurables au sens où, pour Kuhn, il est impossible de comparer ou de juger les théories de l’un avec les critères de l’autre en raison des différences théoriques et méthodologiques fondamentales qui les opposent. Pour Feyerabend, c’est à peu près comme chez Kuhn. La manière dont on va énoncer les observations est jugée intimement dépendante du cadre théorique dans lequel elles apparaissent. C’est un peu comme si on regardait successivement une chose avec deux paires de lunettes différentes. Dans certains cas, écrit Feyerabend, les théories sont si éloignées qu’il s’avèrera tout bonnement impossible de formuler les concepts de l’une avec les termes de l’autre. On dit que ces théories ne partagent aucun énoncé d’observation et sont logiquement incomparables. L’un des exemples célèbres donné par Feyerabend est celui de la relation entre la physique classique (Newton, Galilée) et la théorie de la relativité (Einstein) : 1) D’après la mécanique classique, les objets physiques ont réellement une masse, une forme et un volume. Ces propriétés sont « dans » les objets et peuvent changer à la suite d’une interaction physique (collision, changement d’état…). 2) D’après la théorie de la relativité, ces propriétés ne sont plus considérées comme intrinsèques aux objets, mais décrivent des relations entre les objets au sein d’un certain cadre de référence (par exemple, la Terre). Einstein découvre ainsi que ces propriétés changent parfois sans la moindre interaction physique, mais au cours d’un changement de référentiel. Conclusion : Tout énoncé d’observation se référant à des objets physiques décrits par la mécanique classique aura une signification entièrement différente d’un énoncé d’observation similaire dans la théorie de la relativité. « Le projet de progrès positiviste avec ses « lunettes poppériennes » s’écroule », en conclue Feyerabend, qui cite également à ce sujets la mécanique quantique (où les objets n’ont pas d’état fixe en dehors des observations). Remarque : Cette incommensurabilité des théories « rivales » ne veut pas dire qu’on ne peut jamais les comparer. On peut par exemple les confronter en regardant si elles sont cohérentes, audacieuses, si elles font des prédictions qui se réalisent, ou encore les confronter face à des observations similaires. In fine, le choix de telle ou telle théorie plutôt qu’une autre qui lui est incommensurable est subjectif. Et « la propagande joue un rôle de tout premier plan ». La propagande, mais aussi l’imitation, la mode, les logiques de pouvoir, la peur d’être critiqué si on tente quelque chose de nouveau etc. Que reste-t-il de la science après tout ça ? La sentence est brutale : « ce qui reste (après avoir exclu la possibilité de comparer logiquement des théories en comparant des séries de conséquences qui s’en déduisent), ce sont les jugements esthétiques, les jugements de goûts, les préjugés métaphysiques, les désirs religieux, bref, ce sont nos désirs subjectifs. » Bien que l’incommensurabilité des théories rivales soit un point de vue plutôt bien justifié, on n’est pas obligé d’en tirer cette conclusion subjectiviste. Alan Chalmers, dans le chapitre qu’il consacre à Feyerabend dans Qu’est-ce que la science, s’y refuse. Il est prêt à admettre que la subjectivité ou des facteurs externes jouent un rôle dans le choix de travailler sur tel ou tel sujet ou de choisir telle ou telle théorie, mais précise que cela n’implique en aucun cas de renoncer à l’argumentation rationnelle. Par ailleurs, on peut aussi expliquerselon lui le succès d’une théorie parses « potentialités objectives de développement » supérieures. La théorie d’Einstein, écrit-il, a remplacé celle de son rival Lorentz car ses potentialités se sont révélées plus fructueuses et plus rapidement en dépit de leur incommensurabilité. Certains scientifiques profitent tout simplement mieux des opportunités qui se présentent indépendamment de leurs préférences individuelles. Dynamitage du problème de la démarcation : la science n’est pas supérieure aux autres disciplines L’une des questions les plus polémiques de Feyerabend, qu’il partage sans doute avec son admirateur Raoult tient à la relation entre la science et les autres formes de savoir. L’opinion couramment admise à ce sujet est simple : la science serait l’activité rationnelle par excellence. Elle fournirait même le paradigme de la rationalité, le modèle dont on se sert pour la décrire. Or, écrit Feyerabend, personne ne s’est vraiment penché sur la question de savoir si la science moderne était supérieure à d’autres disciplines comme la magie ou la science antique qui, aujourd’hui, nous parait assez ridicule sur certains points. On a coutume de dire que la médecine des humeurs ou l’astrologie de Ptolémée sont obsolètes, dépassées, irrationnelles etc. Mais avons-nous raison de dire cela ? Les scientifiques et les scientistes (ceux qui ont une foi aveugle en la science) la jugent supérieure aux autres savoirs sans chercher à connaître ces derniers de manière approfondie. Contre le marxisme, l’astrologie ou la psychanalyse, ils se sont contentés, dit-il dans l’article « Sur la critique de la raison scientifique » (1976), « d’arguments expéditifs et d’un examen superficiel ». Si aucun argument décisif ne permet de trancher entre deux théories scientifiques rivales, alors il doit en être de même entre la science et ses rivales qui, comme la physique classique et quantique, sont incommensurables. Si on veut comparer la science et les autres sources du savoir, il faut en connaître la nature, les buts et les méthodes précises. Qui nous dit que ces savoirs doivent se conformer aux règles de la logique classique invoquées par des scientifiques qui, bien souvent, ne les respectent pas eux-mêmes ? Apparue au début du XXème siècle, la physique quantique a remis en question la plupart des postulats logiques des physiciens. Est-ce un défaut ? Oui, disait par exemple Einstein, qui considérait qu’une théorie qui violait les principes fondamentaux de la physique ne pouvait être approuvée. En physique quantique, il y a en effet violation du principe de non-contradiction dans la mesure où certains corps peuvent se trouver dans une « superposition d’état » que seule l’observation viendra trancher. La position d’un électron autour d’un atome est, avant l’observation, indéterminée. De même, il est impossible de dire si la lumière est une onde ou un corps avant de l’observer, et elle se comporte parfois comme une onde, parfois comme un corps. Par ailleurs, la physique quantique s’intéresse à la contrafactualité, c’est-à-dire au fait que des évènements qui auraient pu se produire, mais ne se sont pas produits influent sur les résultats de l’expérience. Au sein de cette nouvelle physique, il semble donc qu’une nouvelle logique soit à l’œuvre. Dans ce cadre-là, la violation des principes de la logique classique par la physique quantique n’est pas un si grand problème à condition que l’on ne découvre pas des contradictions internes au sein de la théorie. Si par exemple, la théorie prédisait des évènements contraires en même temps (ce qui n’est pas le cas, il s’agit de probabilité), alors on aurait un sérieux argument contre la physique quantique. Il n’est donc pas valable de rejeter le marxisme ou la psychanalyse en les jugeant à l’aulne d’une prétendue « méthode scientifique » universelle et éternelle comme le fait Popper. À l’inverse, on fait peut-être une erreur en faisant comme si les sciences sociales reposaient sur les mêmes fondements et utilisaient les mêmes méthodes que les physiciens ou les mathématiciens. Ces disciplines reposent sur des fondements très différents, même si l’attitude scientifique (raisonnable ou extravagante) leur est commune. Pour autant, Feyerabend préfère évoquer des disciplines « très éloignées » des sciences telles qu’elles se sont elle-même décrites, c’est-à-dire en s’opposant au vaudou, à la magie, à l’astronomie en essayant de montrer, pour touteslesraisons précédentes, qu’on ne peut les écarter à l’aide d’un « critère de scientificité » donné. Pour ce faire, encore faudrait-il montrer que ces disciplines ont, à l’instar des sciences, des buts et des méthodes bien définis, ce qui n’est pas si évident. Pour Chalmers, ce n’est d’ailleurs pas le plus grand problème actuel car nous n’avons plus, aujourd’hui, à choisir entre la science et le vaudou, entre la rationalité occidentale et, dit-il, « celle de la tribu des Nuer ». Pour autant, il semble que nous ayons effectivement aujourd’hui à choisir. La rationalité occidentale subit en effet, depuis l’époque de Feyerabend, des attaques virulentes depuis ses « marges ». On en dénonce l’universalisme trop englobant, la négation des rationalités « alternatives » issues d’autres cultures, voire son impérialisme. On peut citer l’ouvrage de Placide Tempels intitulé La philosophie bantoue (1959) ou ce dernier entendait prouver que, contrairement à ce que plusieurs philosophes occidentaux et anthropologues avaient prétendu (Kant, Hegel, Voltaire, Lévy-Bruhl…), les bantous (un ensemble de populations parlant une langue commune présents dans toute la moitié Sud de l’Afrique) disposeraient eux-aussi d’une philosophie cohérente. Pour lui, il existe bien une « philosophie bantoue » avec ses propres catégories et s’opposant radicalement à l’ontologie occidentale. Là où les colons voyaient des croyances magiques ou surnaturelles, il y aurait une philosophie de valeur comparable à celle qui s’est développée en Occident. Si seuls quelques rares personnes nient encore aujourd’hui qu’il y ait des philosophies ailleurs qu’en Occident et que cette dernière ne relève pas exclusivement d’un « miracle grec », cette critique prend aujourd’hui une tournure parfois violente, des militants réclamant par exemple aux États-Unis le retrait de certains auteurs des programmes de philosophie aux motifs de certains textes racistes ou de rétablir une forme de justice envers des philosophes qui, seront eux, auraient été injustement mis à l’écart. Dans une perspective historique, des penseurs dits « décoloniaux » sud-américain comme Nelson Maldonado-Torrès, Walter Mignolo ou Aníbal Quijano accusent la philosophie occidentale et ses catégories (comme « l’être ») d’être intrinsèquement coloniale depuis 1492 a minima. Pour une science libre Indépendamment de ce débat éminemment contemporain (faut-il abandonner l’universalisme de la « raison » au motif de son inscription dans le contexte occidental ?), on peut résumer l’anarchisme de Feyerabend ainsi : la philosophie est à la fois incapable de décrire ce qui se passe dans le monde scientifique et de distinguer ce qui est scientifique de ce qui ne l’est pas. Le problème de la démarcation n’a donc pas de sens, et personne ne peut dire par exemple de quelle nature est la frontière entre la science et la magie ou l’idéologie. En conclusion, les scientifiques doivent ignorer autant que faire se peut les prescriptions des philosophes et adopter une démarche respectable et rigoureuse, mais libre. Inspiré par l’utilitarisme de John Stuart Mill, Feyerabend défend une « attitude humaniste » consistant à jouir de sa liberté de mener une vie pleine et enrichissante, de cultiver une forme d’individualisme conscient des autres. Il faut pour cela lever les entraves des traditions et des méthodologies dominantes et favoriser la liberté de choisir entre la science et d’autres formes de savoir. L’institutionnalisation de la science dans nos sociétés, au lieu de permettre une avancée dans ce sens, va au contraire à l’encontre de cet humanisme. On l’enseigne comme une discipline obligatoire, qui s’impose d’en haut, si bien qu’aucun élève ne peut choisir d’apprendre autre chose à sa place, par exemple la magie. « Il y a une séparation entre l’Eglise et l’État, il n’y a pas de séparation entre l’État et la science », assène-t-il. La solution est radicale : il faut libérer la société de cette science « pétrifiée » tout comme la science, autrefois, a libéré les hommes de l’empire sans rival de la magie et des religions. Dans la société idéale de Feyerabend, qu’il présente dans La science dans une société libre (1978), l’État ne privilégie pas la science par rapport à d’autres disciplines et orchestre raisonnablement le débat entre les idéologies afin que chacun puisse choisir. Cette conception « négative » de la liberté (cf. Isaiah Berlin) comme absence de contrainte reçoit une objection capitale de la part de Chalmers. Selon lui, elle néglige les inégalités d’accès à l’information des citoyens et le caractère illusoire du « choix libre » ou des « préférences individuelles » qui, nous montrent les sociologues et les économistes, s’inscrivent le plus souvent dans des logiques de conformisme social. Dans le même registre, David Hume s’était ainsi moqué de John Locke, qui présentait le contrat social comme librement approuvé par tous les membres d’une société et invitait les réfractaires à émigrer : « Peuton affirmer sérieusement qu’un pauvre paysan, qu’un artisan qui ne connait ni les langues ni les mœurs des pays étrangers, et qui vit au jour le jour de ce qu’il gagne par son travail soit libre de quitter son pays natal ? ». Hume a sans doute raison. Chaque individu nait dans un certain état de la société, à une certaine place qui lui est assignée et dont il est très difficile de s’émanciper. Pour garantir un égal accès de chacun aux informations permettant de choisir entre la science et ses rivales, il faudrait d’abord prendre un compte la structure sociale, faire des réformes profondes dans les secteurs de la culture et de l’éducation. Et cela ne suffirait sans doute pas. C’est la société toute entière qu’il faudrait parvenir à transformer. Feyerabend en était conscient, et il écrivait que le scientifique était « limité par d’innombrables contraintes physiques, physiologiques, sociologiques ou historiques ». Mais sa société libre dont rêve Feyerabend, où chacun pourrait choisir sur un pied d’égalité entre les différentes théories scientifiques, ou entre la science et ses concurrentes ne nous dit rien de ce qu’il faut faire hic et nunc pour y parvenir. Si bien que, conclue Chalmers, l’anarchisme épistémologique a plus de chance d’aboutir au maintien du statu quo scientifique qu’à une révolution. « Tout est bon », écrit John Krige, « signifie pratiquement, tout se maintient. » Un texte bonus qui résume à peu près tous les points dont nous avons parlé au sujet de cet auteur. Paul Feyerabend, Thèses sur l’anarchisme épistémologique, Revue Alliage n. 28, 1996 Nous avons également découvert que les résultats de la science n’ont aucune solidité, que ses théories tout comme ses énoncés factuels sont des hypothèses, qui, souvent, sont non seulement localement incorrectes mais entièrement fausses, et concernent des choses qui n’ont jamais existé. Selon la perspective qui fut introduite par John Stuart Mill (Essai sur la liberté) et dont les propagandistes contemporains les plus bruyants sont Karl Popper et Helmut Spinner, la science est un ensemble d’alternatives concurrentes. La conception « généralement acceptée » est celle qui possède un avantage provisoire, en raison soit de quelque astuce, soit de certains mérites réels. Il y a des révolutions qui ne laissent rien debout, aucun principe inchangé, aucun fait intact. Déplaisante par son image, suspecte dans ses résultats, la science a cessé d’être une alliée de l’anarchiste. Elle est devenue un problème. L’anarchisme épistémologique résout ce problème en éliminant les éléments dogmatiques des formes antérieures de l’anarchisme. L’anarchisme épistémologique diffère à la fois du scepticisme et de l’anarchisme politique (religieux). Tandis que le sceptique considère chaque conception comme également bonne, ou également mauvaise, ou se défend tout simplement d’émettre de tels jugements, l’anarchiste épistémologique n’a aucun scrupule à défendre les énoncés les plus triviaux, ou les plus provocants. (…) Conclusion : ni la science, ni la méthodologie des programmes de recherche ne fournissent d’arguments contre l’anarchisme. Ni Lakatos ni personne d’autre n’a prouvé que la science est meilleure que la sorcellerie et que la science opère de façon rationnelle. C’est le goût, et non l’argumentation, qui guide nos choix en science » ; c’est le goût, et non l’argumentation, qui nous fait agir dans les sciences (ce qui ne veut pas dire que les décisions prises sur la base du goût ne sont pas entourées, voire complètement recouvertes, d’arguments, tout comme une pièce de viande savoureuse peut être entourée, voire complètement recouverte, de mouches). Un tel résultat ne doit pas nous déprimer. La science, après tout, est notre créature, et non pas notre maîtresse » ; ergo, elle devrait être l’esclave de nos caprices, et non le tyran de nos désirs. Conclusion Au sortir de ce parcours introductif à la philosophie des sciences du 20ème siècle, on peut je pense mieux cerner ce qu’a en tête Didier Raoult lorsqu’il s’oppose explicitement à ses pairs. Poppérien, il récuse l’idée selon laquelle la médecine pourrait accéder à une forme de vérité ultime Kuhnien, il évoque les luttes de pouvoir intestines qui, selon lui, font le malheur de la médecine moderne et en empêchent le progrès. Anarchiste épistémologique par bien des aspects, il refuse de s’agenouiller devant ses pairs lorsque ceuxci lui font remarquer qu’il ne respecte pas les méthodes officielles. Est-il pour autant un scientifique « respectable » ? Je vous laisse en juger à la lumière des critères de Feyerabend.

...

Télécharger au format  txt (51.6 Kb)   pdf (223.2 Kb)   docx (24.4 Kb)  
Voir 31 pages de plus »
Uniquement disponible sur DissertationsEnLigne.com