Bibliographie générale

List Resources

Displaying 1 - 5 of 5 (Bibliography: WIKINDX Master Bibliography)
Order by:

Ascending
Descending
Use all checked: 
Use all displayed: 
Use all in list: 
de Duve, C. (2013). Sept vies en une: Mémoires d’un prix nobel. Paris: Éditions Odile Jacob.  
Added by: Dominique Meeùs 2013-01-13 09:54:03 Pop. 0%
           Ce que je relate, avec mon vocabulaire à moi, c’est un cheminement intérieur strictement personnel, soutenu par l’art de raisonner que m’ont inculqué les pères jésuites, par le « doute méthodique » auquel m’a initié Descartes et par la démarche scientifique de Claude Bernard que j’ai apprise de mon maître Bouckaert.
     Le fruit principal de ce cheminement a été le refus de tout dualisme et une prise de position ferme en faveur du monisme, non par conviction doctrinale, mais pour des raisons de simple cohérence intellectuelle. Je refuse le dualisme cartésien « matière-esprit », « corps-âme », etc., parce que je pose la question de la nature du lien par lequel les deux communiquent : matière ? esprit ? ou les deux ? Descartes ne se prononce pas sur cette question à propos de ses « esprits animaux », dont la terminologie est presque contradictoire.
     L’autre dualisme que je rejette est celui qui voit dans l’univers existant l’œuvre d’un Créateur, Grand Architecte, Maître Horloger ou toute autre représentation anthropomorphique tirée de notre expérience journalière. Avec d’autres, je demande qui a créé le Créateur. Si on me répond : « Il n’a pas été créé ; Il est », je demande pourquoi on juge nécessaire de faire appel à lui. Pourquoi ne pas voir tout simplement le monde comme étant lui-même incréé, la seule réalité qui inclut tout, y compris nous-mêmes ? […]
     C’est de telles considérations qu’est née dans mon esprit, il y a une dizaine d’années, la notion d’Ultime Réalité, qui englobe tout ce qui existe, y compris moi-même et mes semblables, en une entité unique, mais présentant plusieurs facettes accessibles chacune à une part différente du cerveau humain : 1) la facette intelligible, révélée par la science ; 2) la facette sensible, source de l’émotion artistique ; et 3) la facette éthique, d’où naît la distinction entre le bien et le mal ; soit la célèbre triade retenue, notamment, par Einstein — le vrai, le beau et le bien — à laquelle j’ajoute l’amour, qui domine tout.

Un dernier virage
     J’allais conclure sur cette « profession de foi », lorsqu’une dernière autocritique m’a soudain fait changer d’avis. Je me suis rendu compte que cette notion d’Ultime Réalité, que j’ai énoncée il y a dix ans et réitérée depuis à plusieurs reprises, n’était pas le fruit d’une conviction raisonnée, mais bien un simple prolongement de ce fil conducteur issu du déisme de ma première enfance qui transparaît tout au long des citations qui précèdent. Il est enveloppé d’un « flou artistique » qui me permet de prendre mes distances à l’égard d’une croyance que mon cerveau rationnel rejette, tout en continuant de baigner dans le mysticisme romantique du boy-scout qui contemple le ciel étoilé. Suite à cette constatation, la notion d’Ultime Réalité a cessé d’emporter mon adhésion. Elle est devenue pour moi une cause d’embarras et de malentendu, que je me dois de dissiper tant que j’en ai encore le temps.
     En effet, cette notion évoque presque immanquablement celle d’une entité intemporelle dont nous ne faisons que découvrir l’existence et la nature. Entre mon Ultime Réalité et l’Être immanent des religions monothéistes, le pas est aisément franchi. je n’en voudrais pour preuve que l’accueil favorable que ma proposition a reçu d’un grand nombre de croyants. Pour ceux que j’induirais à franchir ce pas, je dois à l’honnêteté intellectuelle de préciser que telle n’est pas mon intention. Je ne puis plus, rationnellement, me rallier à ce concept d’un Être immanent.
     Il existe une autre conception, défendue en dehors de toute croyance par de nombreux scientifiques, selon laquelle les qualités que j’attribue à l’Ultime Réalité ne sont que des constructions du cerveau humain, de nature strictement utilitaire, dont il se fait qu’elles ont été retenues par la sélection naturelle parce que les individus et les groupes qui s’y conformaient survivaient mieux et produisaient plus de progéniture que ceux qui les ignoraient. Si nous respectons la vérité, ce n’est pas pour sa valeur intrinsèque, mais parce que, au cours du temps, le mensonge n’a pas été payant. En dernière analyse, la sélection naturelle n’a pas favorisé ceux qui refusaient de regarder la vérité en face. Nous aspirons à la beauté, non pas comme une conception abstraite, mais comme une qualité génératrice d’émotions qui, au travers de formes perpétuellement changeantes, ont renforcé les liens que les œuvres d’art ont tissés au sein des populations qui se sont groupées autour d’elles. Nous faisons appel à l’éthique, non pas en raison d’une supériorité existentielle du bien sur le mal, mais parce que les sociétés qui se donnaient des lois l’ont emporté sur les sociétés anarchiques. On doit souligner à ce propos que la sélection naturelle joue aussi un rôle dans le domaine culturel. Toutes les innovations qui contribuent au succès évolutif de leurs auteurs tendent à être automatiquement retenues.
     Vue sous cet angle, la réalité se présente comme une entité que nous ne faisons pas que découvrir, comme je le suggérais, mais que nous contribuons aussi à construire, dans un cadre où le temps joue un rôle majeur. Ainsi redéfinie, l’Ultime Réalité n’est pas l’entité intemporelle que son nom évoque, mais bien une conception de mon esprit qui ne me serait pas venue à l’idée si je n’avais pas subi un endoctrinement déiste au cours de ma première enfance. On peut se demander à ce propos si la « religiosité » d’Einstein, qui a fait couler tant d’encre, sinon d’eau bénite — le mot « Dieu » semble exercer sur lui une attraction presque obsessionnelle — ne trouve pas semblablement son origine dans une synagogue où il aurait reçu sa première éducation.
     Examinant mon revirement à la lueur des bribes qui subsistent de mes cours de philosophie, je constate que je n’ai fait que redécouvrir pour mon compte un dilemme qui préoccupe les philosophes depuis des millénaires et qui a opposé, notamment, Aristote à son ancien maître Platon : les notions abstraites appartiennent-elles, comme le pensait Platon, à un monde métaphysique qui existe en dehors de nous et que nous découvrons ? Ou bien sont-elles des créations de l’esprit humain ? Les mathématiciens se sont posé la même question à propos de leurs concepts. Pour ma part, j’ai commencé par me ranger avec les platoniciens, comme en témoigne ce passage d’À l’écoute du vivant : « Je ne puis qu’avouer un préjugé intuitif — ou est-ce une empreinte de ma première enfance ? — en faveur de la vision platonicienne. » Je suis passé depuis de l’autre côté.
     Cette nouvelle vision des choses débarrasse les attributs que j’assignais à l’Ultime Réalité de tout cadre métaphysique ou ésotérique. Pour autant, elle n’exclut pas la nécessité pour nous de nous donner des valeurs. Elle demande simplement une réorganisation de ces dernières.
      De l’origine de la vie à son histoire, il n’y avait qu’un pas ou, plutôt, une série de pas dont chacun m’a demandé un nouvel effort d’étude et de réflexion concrétisé dans un nouveau livre (de Duve, 1996). Le problème était simple au départ, car seules les grandes lignes de l’évolution biologique m’intéressaient. je laissais les détails aux experts. Par contre, ce qui a considérablement enrichi et, en même temps, stimulé ma réflexion, ce fut la théorie de la sélection naturelle de Darwin, que je n’avais rencontrée précédemment que dans ma critique du livre de Monod (de Duve, 1972).
     Je n’avais aucune difficulté à accepter la version contemporaine de cette théorie, qui ne fait que donner un habillage chimique (par l’ADN et l’appariement de bases) à ses fondements conceptuels. Il y avait d’abord le phénomène fondamental de la réplication, source, si elle est fidèle, de la continuité génétique et, par ses inévitables infidélités, de la diversité naturelle que les cultivateurs et les éleveurs ont longtemps exploitée pour créer, par le choix des géniteurs (sélection artificielle), des espèces végétales et animales possédant certains caractères génétiques désirables qui ont remplacé la plupart des espèces dites « sauvages » dans le monde d’aujourd’hui. Il y a ensuite, empruntée à l’économiste Thomas Malthus (1766-1834), la notion de lutte pour la vie (struggle for life) comme conséquence inéluctable de cette diversité naturelle laissée à elle-même. D’où la sélection obligatoire des variants les mieux adaptés à survivre et à se reproduire dans les conditions d’environnement existantes, reconnue par Darwin et, en même temps, par son compatriote et contemporain moins connu, Alfred Russell Wallace.
     J’admettais en outre, avec la grande majorité des évolutionnistes, que les modifications génétiques qui offrent à la sélection naturelle les objets de ses « choix » sont le fruit d’événements strictement accidentels, récusant par la même occasion la théorie du « dessein intelligent », en partie parce que ses soi-disant « preuves » ne sont pas convaincantes et, surtout, parce qu’elle n’est pas scientifique, étant fondée sur une affirmation indémontrable et infalsifiable, selon laquelle certains phénomènes ne sont pas explicables naturellement. Par définition, la science repose sur le postulat que les choses sont explicables naturellement, que l’on n’abandonnera que s’il est mis en défaut, ce qui ne s’est encore jamais passé. Il convient de ne pas confondre ici « inexplicable » avec « inexpliqué », dont il subsiste encore de nombreux cas.
     Un corollaire de la vision darwinienne classique, obvie mais rarement explicité, est que la sélection naturelle ne peut agir que sur les variants inclus dans le lot qui lui est offert par le hasard. D’autres formes mieux adaptées aux conditions ambiantes pourraient exister, mais, si elles ne sont pas offertes, elles n’émergeront pas. Ici, deux extrêmes se présentent à l’esprit : Ou bien le hasard offre à la sélection naturelle tous les variants possibles, auquel cas c’est la forme optimale qui sortira — et qui sortira à répétition si la situation se reproduit. C’est ce que j’ai appelé l’optimisation sélective. Ou bien le lot offert par le hasard ne contient qu’un très petit sous-ensemble des variants possibles, auquel cas le phénomène est gouverné par la contingence et a toutes les chances de ne pas être reproductible. Je n’ai pas souvenance d’avoir jamais vu le problème présenté sous cette forme, mais j’ai toutes les raisons de soupçonner que la deuxième éventualité a été retenue intuitivement par la majorité des évolutionnistes classiques, dont Jacques Monod, François Jacob, Ernst Mayr, George Gaylord Simpson, Stephen Jay Gould, pour ne citer que les plus connus. C’est ce que déclare implicitement Monod lorsqu’il écrit : « L’Univers n’était pas gros de la vie, ni la biosphère de l’homme » ; ou ce que sous-entend Jacob quand il parle du « bricolage » de l’évolution ; ou, encore ce qu’affirme Gould dans une allégorie aussi bancale que célèbre : « Rembobinez la bande et rejouez-la à partir d’un même début, le résultat sera tout à fait différent. »
     L’erreur, dans ce genre d’affirmations est de confondre hasard et improbabilité. Ce n’est pas parce qu’un phénomène est régi par le hasard qu’il en devient automatiquement improbable. Tout dépend du nombre d’occasions qui lui sont données de se produire, relativement à sa probabilité. Ainsi, comme je l’ai montré par un calcul simple (de Duve, 2005), j’ai 99,9 % de chances de gagner à pile ou face si la pièce est lancée une dizaine de fois, au jet d’un dé avec trente-huit essais, et même avec un billet de loterie de sept chiffres s’il y a soixante-neuf millions de tirages, soit, en moyenne, avec un nombre d’occasions égal approximativement à sept fois l’inverse de la probabilité de l’événement. Bien entendu, la loterie ne fonctionne pas ainsi. Mais il pourrait en être autrement pour l’évolution.
     C’est ce que suggèrent, notamment, les nombreux cas qui ne s’expliquent que par optimisation sélective dans une optique darwinienne. Un exemple particulièrement frappant est celui du mimétisme, le phénomène, fréquent dans la nature, par lequel, par exemple, sont nés des insectes qui ressemblent à s’y méprendre à la branche ou à la feuille sur laquelle ils sont juchés, ou des poissons qui ne se distinguent pas du fond sablonneux ou couvert de galets sur lequel ils reposent. Il est évident qu’une adaptation aussi précise à l’environnement n’a pu se faire, si elle a eu lieu naturellement, que par une longue succession d’étapes dont chacune a été retenue par la sélection naturelle, ce qui sous-entend qu’à chaque étape, le lot fourni par le hasard contenait une mutation suffisamment favorable à la poursuite du processus ou, du moins, compatible avec elle pour être retenue par la sélection naturelle.
     Ma pensée se rapproche ainsi sous une forme plus explicite de celle des évolutionnistes de la nouvelle génération, tels que Simon Conway Morris et Richard Dawkins, qui mettent en exergue les nombreux cas de convergence évolutive, le phénomène par lequel des formes de vie géographiquement séparées répondent indépendamment par une même adaptation à un même défi environnemental. Dawkins va jusqu’à retourner contre son auteur l’allégorie de Gould en affirmant que si on « rejouait la bande », le même récit en sortirait. Éclairée par ces notions, l’évolution de la vie apparaît devoir plus à la nécessité et moins au hasard qu’on ne le croit généralement, sans qu’il soit nécessaire pour expliquer ce fait de faire appel à un principe directeur finaliste extramatériel type « dessein intelligent ».
     Dans ce type d’estimation, il est important également de définir clairement l’événement dont on estime la probabilité. Ainsi, au jeu de bridge, que j’ai beaucoup pratiqué dans ma jeunesse et qui est devenu le domaine d’expertise de mon fils Alain, le nombre total des distributions possibles des cinquante-deux cartes parmi les quatre joueurs est 5 × 10exp28, soit cinquante milliards de milliards de milliards. C’est dire que la probabilité que la même répartition des cartes ait jamais été distribuée deux fois par hasard depuis que le jeu existe est proche de zéro. Mais ce qui intéresse le joueur, ce n’est pas ce chiffre, c’est la chance qu’il a de réussir un contrat, par exemple trois sans atout. Ici, à en juger par la fréquence avec laquelle un tel contrat est réussi en une soirée, l’événement devient banal.
     De même, le nombre de séquences différentes que l’on peut réaliser avec des acides aminés appartenant, comme les constituants des protéines, à vingt espèces différentes (espace des séquences), devient matériellement irréalisable avec des longueurs dépassant une trentaine d’acides aminés. Il faudrait une masse équivalente à 10exp54 fois la masse de l’univers pour contenir un exemplaire de chaque séquence possible de cent acides aminés, la longueur d’une petite protéine naturelle. Ce fait a été utilisé par les partisans du « dessein intelligent » comme argument massue contre la notion que la vie a pu naître naturellement. Ils ne tiennent pas compte du fait que la sélection naturelle ne joue pas sur les séquences comme telles, mais sur des caractères structuraux ou fonctionnels, tels qu’une activité enzymatique, par exemple, réalisables avec de très nombreuses séquences différentes. Surtout, l’argument néglige l’itinéraire parcouru pour atteindre une séquence donnée. D’après ce que nous savons, les protéines d’aujourd’hui sont nées par la combinaison modulaire de nombreux intermédiaires (par le biais de gènes d’ADN ou d’ARN) de séquence croissante dont chacun a été produit en un nombre suffisamment petit pour faire l’objet de la sélection naturelle.
     En conclusion, on peut se demander ce que penserait Einstein de ces nouvelles conceptions. On sait que, déterministe jusqu’au bout des ongles, le père de la théorie de la relativité abhorrait la notion de hasard, où il ne voyait qu’un écran pour notre ignorance. Il a exprimé ce sentiment par la phrase célèbre : « Dieu ne joue pas aux dés », à laquelle je réponds, au figuré, bien entendu : « Si, car Il est sûr de gagner. »
Hacking, I. (2008). Entre science et réalité: La construction sociale de quoi ? B. Jurdant, Trans. Paris: Éditions La Découverte.  
Last edited by: Dominique Meeùs 2013-02-24 00:34:57 Pop. 0%
      Les premières années du 20e siècle correspondent en effet à une époque révolutionnaire. Einstein avait détrôné Kant, tandis que le raisonnement intuitionniste de Brouwer mettait Aristote en question. Dans la même ligne figuraient Lénine et la nouvelle mécanique quantique, l’un tendant de défaire le capitalisme, et l’autre s'attaquant à la causalité.
Jacob, M. (2001). Au cœur de la matière: La physique des particules élémentaires. Paris: Éditions Odile Jacob.  
Added by: Dominique Meeùs 2012-07-30 12:52:36 Pop. 0%
      C’est en effet avec la masse que nos idées préconçues se trouvent peut-être les plus bousculées. Quoi de plus tangible que la masse ? N’est-ce pas a priori une propriété fondamentale d’un objet indépendante des circonstances ? Avec Lavoisier, la masse est une propriété indestructible, que l’on retrouve à travers tous les processus chimiques. Avec Einstein, c’est une forme de l’énergie mais dans la plupart des cas, la conservation de l’énergie entraîne la conservation de la masse. En physique des particules, la masse est une propriété intrinsèque de la particule, un invariant qui sert à la définir. La masse est longtemps apparue comme une propriété fondamentale.
     N’est-il pas surprenant de la voir maintenant apparaître comme une propriété purement dynamique, liée aux propriétés du vide et à la façon dont elles affectent les particules qui s’y trouvent ? Le modèle standard introduit des particules sans masse et le couplage au champ de Higgs attribue une masse déterminée à chaque particule, toutes ces masses étant proportionnelles à la valeur moyenne de ce champ. On peut dire que la masse de chaque particule est maintenant donnée par une constante de couplage au champ de Higgs, soit autant de paramètres (de nombres purs) qu’il y a de particules.
     Cela s’applique aux leptons, mais pour les quarks constituant des hadrons, il faut aller plus loin. Les quarks u et d ne vont acquérir ainsi que des masses très faibles (quelques MeV) par rapport à celles des protons et des neutrons qu’ils constituent (de l’ordre du GeV). Or la masse du proton et celle du neutron représentent la masse telle qu’elle apparaît dans la vie courante, la masse des atomes et donc de tous les corps. Comme nous venons de le voir, cette masse hadronique correspond à la masse effective que prennent ces quarks quand ils s’habillent de gluons à l’intérieur d’un hadron. Pratiquement, la totalité de cette masse effective est un effet dynamique. On peut aussi dire qu’elle correspond à l’énergie nécessaire pour créer la bulle que va constituer la particule dans un vide qui préférerait ne pas l’avoir et ne la tolère que parce qu’elle est globalement « neutre » vis-à-vis de la couleur. La création de cette « bulle » demande une énergie de l’ordre du GeV. D’où vient cette valeur de la masse ? Il n’y a pas d’échelle de masse en chromodynamique. Il n’y a qu’une constante de couplage sans dimension. Nous avons vu qu’une échelle de masse (de l’ordre de 150 MeV) apparaît pourtant quand on considère la variation de la constante de couplage effective avec le transfert. Elle est incontournable lorsqu’on veut calculer et pour ce faire renormaliser la théorie. Rappelons-nous l’inversion de l’effet d’écran rencontré au chapitre 2. La masse va dépendre de la structure de la chromodynamique fondée sur la symétrie SU(3) de la couleur. Elle dépend avant tout du fait qu’il y a 8 gluons et 2 quarks à ce niveau d’énergie, encore une fois des nombres purs. Mais il n’y a pas que cela. Un physicien dira que lorsqu’on renormalise une théorie il faut se raccrocher à une valeur expérimentale qu’on ne peut que mesurer et qui, dans le cas de l’interaction forte, peut être choisie comme une distance de l’ordre de 1 fermi (où mesurer la force de l’interaction avec un couplage effectif de l’ordre de 1) ou une énergie de l’ordre de 150 MeV (donnant la variation du couplage effectif avec le transfert). On se raccroche souvent en pratique à la masse du méson rho qui vaut 750 MeV. L’expérience a bien son mot à dire. On ne saurait cependant minimiser la portée de la théorie. Fixant l’échelle de masse sur la valeur d’une masse hadronique, on peut en principe calculer toutes les autres masses ainsi que la température de déconfinement que nous avons rencontrée (voir chapitre 7). Ce n’est aujourd’hui possible qu’au prix de gros calculs numériques sur des ordinateurs qui deviennent de plus en plus puissants (voir chapitre 14).
     Cette nouvelle conception de la masse est une révolution importante. Ce qui apparaissait comme une propriété intrinsèque et immuable se voit relégué au rang d’effet dynamique dépendant des interactions et, avant tout, de la structure du vide.
Klein, É. (2005). Il était sept fois la révolution: Albert einstein et les autres. Paris: Flammarion.  
Last edited by: admin 2017-04-02 21:56:42 Pop. 0%
      […] une place est vacante au Bureau fédéral de la propriété intellectuelle de Berne — une fort belle dénomination en vérité, que l’on s’obstine à traduite platement par Office des brevets (*).
   (*) La dénomination allemande, Eidgenössischen Amt für geisttiges Eigentum, est pourtant sans ambiguïté.
Zapata, R. (1988). La philosophie russe et soviétique. Paris: Presses universitaires de France.  
Last edited by: admin 2011-08-15 08:58:49 Pop. 0%
      Paradoxalement, ce fut dans le terrain de bataille des bolchévisateurs, c’est-à-dire leur interprétation étroite de Matérialisme et empiriocriticisme de Lénine, que surgirent les premiers obstacles à la nouvelle ligne philosophique.
     À première vue, les discussions épistémologiques qui avaient lieu à l’époque en Occident sur la théorie de la relativité et la mécanique quantique offraient un terrain de choix aux bolchévisateurs pour mettre à l’épreuve leur interprétation des thèses de Lénine concernant l’étude de la matière. Les physiciens russes, pour leur part, avaient déjà depuis longtemps engagé leurs recherches dans le cadre des théories d’Einstein, et cela malgré la campagne des mécanistes contre la théorie de la relativité. Au cours des années 30, lorsque s’amorce le débat entre Einstein et l’École de Copenhague à propos de la mécanique quantique, ils sont sans doute plus préoccupés par les aspects mathématiques et scientifiques de ces discussions que par leurs conséquences épistémologiques.
     Lorsque les bolchévisateurs, A. A. Maksimov en tête, lancent encore une fois en 1932 le mot d’ordre d’un « remaniement global des sciences de la nature » et taxent Einstein, Schrödinger, Heisenberg et Bohr d’ « idéalistes de l’espèce machiste » et d’ « ennemis déclarés du matérialisme dialectique », ils ne s’attendaient sûrement pas à une réaction négative des physiciens. Mais ceux-ci ont réagi d’une façon claire et même agressive. Dès 1933, I. E. Tamm publie un article cinglant dans Pod Znamenem Markizma dans lequel il dénonce le fait que « le vrai mal, c’est que la grande majorité des représentants de la philosophie marxiste dans notre pays, qui travaillent dans le domaine de la physique et les domaines annexes, ne comprennent tout simplement plus la situation actuelle dans la science contemporaine ». Et en 1934, lors d’une séance de l’Académie communiste consacrée au vingt-cinquième anniversaire de la publication de Matérialisme et empiriocriticisme, des physiciens de renom international comme A. F. Ioffe et S. I. Vavilov n’hésitent pas à défendre le principe d’indétermination de Heisenberg, que les bolchévisateurs considéraient le comble de l’idéalisme, puisqu’il remettait en cause tous les schémas classiques de la causalité en physique.
wikindx 6.2.0 ©2003-2020 | Total resources: 1310 | Username: -- | Bibliography: WIKINDX Master Bibliography | Style: American Psychological Association (APA) | Database queries: 38 | DB execution: 0.01270 secs | Script execution: 0.04733 secs