Bibliographie générale

WIKINDX Resources

de Broglie, L. (1960). Sur les sentiers de la physique. In Sur les sentiers de la science (pp. 191–215). Paris: Éditions Albin Michel. 
Added by: Dominique Meeùs (2012-07-08 08:29:48)   
Resource type: Book Article
BibTeX citation key: deBroglie1960a
View all bibliographic details
Categories: Histoire, Philosophie, Sciences
Keywords: Auguste Comte, champ, Comte, déduction, Descartes, Duhem, energétisme, induction, Maxwell, particule, physique expérimentale, physique théorique, Pierre Duhem, positivisme
Creators: de Broglie
Publisher: Éditions Albin Michel (Paris)
Collection: Sur les sentiers de la science
Views: 1/1601
Views index: 46%
Popularity index: 11.5%
Notes
Conférence faite au Musée Guimet sous les auspices des Nouvelles littéraires le 25 février 1955.
     Le manuscrit de cet article est répertorié comme « Sur les chemins de la physique » sous le numéro 167 dans l’inventaire analytique du fonds Louis de Broglie (42 J) aux archives de l’Académie des sciences
(http://www.academie-sciences.fr/activite/archive/dossiers/fonds_pdf/Fonds_Broglie.pdf).
Il s’agit de 27 pages dactylographiées avec corrections manuscrites.
Added by: Dominique Meeùs  Last edited by: Dominique Meeùs
Quotes
pp.192-195, Section Le rôle de l’expérience et celui de la théorie.   […]
     La théorie physique, lorsqu’elle est parvenue à obtenir une représentation mathématique cohérente des phénomènes connus, cherche à en déduire la prévision de phénomènes nouveaux. Parfois ces prévisions sont confirmées par de nouvelles recherches expérimentales et la théorie ainsi mise à l’épreuve en sort renforcée. Parfois, et l’on peut dire qu’à la longue ceci finit toujours par se produire, ou bien l’expérience ne vérifie pas une des prévisions de la théorie ou bien elle fournit tout à coup, souvent sans qu’on l’ait cherché volontairement, un fait nouveau qui ne cadre pas avec la théorie : alors il faut réformer et transformer l’édifice théorique précédemment construit. Mais, et ceci est essentiel, cette transformation, parce qu’elle doit toujours permettre de rendre compte des faits précédemment observés, devra être effectuée de façon à englober d’une manière ou d'une autre, et souvent à titre de première approximation, la théorie antérieure et l’ensemble des équations sur lesquelles elle reposait dont seule l’interprétation aura varié. Ainsi, la nouvelle théorie pourra retrouver toutes les prévisions exactes de l’ancienne, mais, se détachant d’elle dans certaines circonstances, elle pourra prévoir exactement les faits observés, là où l’autre ne pouvait y réussir. C’est par ces englobements successifs que la Physique théorique parvient à progresser sans renier aucun de ses succès antérieurs et à faire entrer dans le sein d’une synthèse qui se transforme et s’élargit sans cesse un nombre croissant de faits expérimentaux. Pour n’en citer qu’un des exemples les plus mémorables, la théorie électromagnétique de la Lumière de Maxwell est parvenue à retrouver, en les interprétant différemment, toutes les équations qu’avait fournies à Fresnel et à ses continuateurs l’image d’un éther élastique support des vibrations lumineuses, mais elle a pu, en outre, faire entrer la lumière, comme cas très particulier, dans la catégorie infiniment plus vaste des ondes électromagnétiques et elle a pu aussi conduire à une interprétation remarquable des phénomènes électro et magnéto-optiques que la conception de Fresnel ne pouvait pas atteindre.
     Avant de terminer ces considérations générales sur le rôle réciproque de l’expérience et de la théorie, soulignons que le résultat de l’expérience n’a jamais le caractère d’un fait brut que l’on se borne à constater : il y a toujours dans l’énoncé de ce résultat une part d’interprétation, donc une intervention de conceptions théoriques. Le physicien qui mesure un courant avec un ampèremètre ne se contentera pas de dire : « J’ai vu l’aiguille de mon appareil de mesure venir se placer sur tel trait de sa graduation » car sous cette forme cette constatation n’aurait pas d’intérêt ; il dira : « J’ai mesuré un courant de dix ampères », mais, si cette fois son affirmation prend de l’intérêt, elle suppose tout un ensemble de conceptions théoriques sur les lois de l’électricité, sur le fonctionnement de l’appareil de mesure, etc. Cette intervention inévitable d’idées théoriques dans l’énoncé des résultats expérimentaux a tellement frappé certains esprits qu’ils ont été jusqu’à se demander s’il y avait vraiment des faits expérimentaux existant indépendamment de nos conceptions théoriques et on a été jusqu’à dire : « Le savant crée le fait scientifique. » Il y a là certainement une exagération qu’Henri Poincaré avait naguère fortement combattue. Le fait scientifique a sans aucun doute une existence indépendante des conceptions dont on se sert pour l’exprimer : parfois même, il se refuse à confirmer l’interprétation théorique qu’on voulait lui donner. Néanmoins, il faut retenir des analyses qui ont été faites à ce sujet, notamment par Édouard Leroy et par Pierre Duhem il y a une soixantaine d'années, que la notion de fait expérimental est moins simple qu’on ne pourrait le croire tout d’abord : il n’y a pas de fait entièrement « brut ». Les données de nos sens ne peuvent servir à la construction de la science qu’après que nous les avons convenablement interprétés et dans cette interprétation interviennent forcément certaines conceptions de notre esprit, c’est-à-dire des idées théoriques. Et ceci montre que l’on ne peut pas séparer l’une de l’autre d’une façon absolument nette l’expérience et la théorie et considérer que le fait expérimental est une donnée indépendante de toute interprétation. La relation entre l’expérience et la théorie est plus subtile et plus complexe : les constatations expérimentales ne prennent leur valeur scientifique qu’après un travail de notre esprit qui, si rapide et spontané soit-il, imprime toujours au fait brut la marque de nos tendances et de nos conceptions.   Added by: Dominique Meeùs
Keywords:   éther Duhem expérience fait fait expérimental Fresnel Henri Poincaré interprétation Maxwell observatin onde électromagnétique Pierre Duhem Poincaré théorie vérification
pp.198-199, Section développement de la « physique du champ ».   L’étude du champ électromagnétique a conduit peu à peu à substituer aux images mécaniques proprement dites celles de grandeurs bien définies en chaque point de l’espace et variant au cours du temps. De telles grandeurs, qu’elles soient scalaires, vectorielles ou tensorielles, définissent un « champ » : elles sont soumises à des équations aux dérivées partielles qui lient leur variation dans l’espace à leur variation dans le temps et assurent ainsi le déterminisme de leur évolution. Beaucoup de physiciens habitués aux anciennes conceptions qui voulaient faire dériver la Physique de la Mécanique ont cherché à interpréter les équations du champ électromagnétique par les propriétés mécaniques sous-jacentes d’un « éther » dont le champ traduirait les modifications locales : les plus grands physiciens, comme lord Kelvin s’y sont employés, mais ces efforts sont restés sans succès et ont finalement été abandonnés. Ainsi la description par figures et mouvements a-t-elle été délaissée si on l’entend au sens étroit qui suppose une réduction finale de toute la Physique à la Mécanique, mais elle a néanmoins été conservée si on l’entend dans le sens plus général d’une représentation par des grandeurs bien localisées et évoluant continûment dans le cadre de l’espace et du temps.
     Mais à l’époque même où, après Maxwell, la Physique du Champ paraissait l’emporter, elle était en quelque sorte contrebattue par la nécessité de rendre compte de la nature atomique de la matière et de l’électricité que l’expérience mettait chaque jour davantage en évidence. C’est ainsi que la notion devenue expérimentalement certaine d’électron dut être introduite par Lorentz dans le cadre de la théorie électromagnétique de Maxwell et, malgré les très beaux succès des idées de Lorentz, on aboutissait, en le suivant, à mélanger d’une manière peu homogène les conceptions de la Physique du Champ avec l’image, plus conforme aux anciennes traditions de la Physique théorique, de corpuscules en mouvement sous l’action de forces dues au champ ce mélange n’était guère satisfaisant et l’on pouvait penser qu’il avait un caractère provisoire.
     […]   Added by: Dominique Meeùs
pp.201-203, Section les théories formelles. Énergétique et atomistique. la physique quantique.   Apparition d’une nouvelle conception de la théorie physique. —Depuis le milieu du XIXe siècle, l’évolution des théories de la Physique en a accentué le caractère formel. La notion de « champ » qui a triomphé notamment dans la théorie électromagnétique a quelque chose de beaucoup plus abstrait que les images fournies par les notions de corpuscule ou de milieu élastique continu qui étaient familières à l’ancienne Physique. Beaucoup d’esprits éminents se prirent alors à penser que le contenu essentiel des théories physiques était non pas les images plus ou moins naïves qui pouvaient servir à les illustrer, mais bien les équations, les relations abstraites, qui les expriment. Certains même allaient jusqu’à considérer toute image comme illusoire et dangereuse et voulaient réduire la théorie physique à un pur formalisme permettant de prévoir correctement les phénomènes observables. Cette tendance nouvelle ne tarda pas à être encouragée par le développement de la Thermodynamique et par le succès de la doctrine philosophique qui, sous le nom de positivisme, commençait à se répandre et qui était apparentée à l’idéalisme kantien.
     C’est, en effet, il y a environ un siècle, que s’est rapidement constituée la science de la Thermodynamique dont Sadi Carnot dans une œuvre géniale trop vite interrompue par une mort prématurée avait, quelques années auparavant, aperçu les grandes lignes. Or, la Thermodynamique avait pris rapidement l’aspect d’une théorie abstraite uniquement fondée sur deux postulats fondamentaux, les fameux principes de la conservation de l’énergie et de l’augmentation de l’entropie. Il était donc tentant, au lieu de chercher à rattacher le succès de ce formalisme à des images mécaniques ou corpusculaires plus ou moins discutables, de s’en tenir uniquement au schéma mathématique obtenu et à l’ensemble des déductions fondées sur la seule base des deux principes fondamentaux. Ce fut l’attitude adoptée par l’École des « Énergétistes » dont Ostwald en Allemagne et Pierre Duhem en France furent les ardents protagonistes. On arrivait ainsi à une conception de la Physique théorique brillamment développée par Duhem dans son livre la Théorie physique selon laquelle celle-ci doit se borner à construire des ensembles formels parfaitement logiques susceptibles de rendre compte des faits expérimentaux sans se soucier d’obtenir une représentation figurée quelconque de ses résultats. Sans doute cette manière de voir est encore compatible avec l’idée que le cadre de l’espace et du temps est bien adapté à la représentation de toutes les évolutions physiques, mais elle s’éloigne, beaucoup plus que la théorie du Champ entendue comme nous l’avons précisé plus haut, de l’idéal cartésien de la description par figures et par mouvements.
     Le succès remporté auprès de beaucoup de physiciens par cette manière nouvelle de concevoir la théorie physique fut certainement facilité par la diffusion des idées philosophiques d’Auguste Comte et de son école. Influencé par la doctrine de Kant qui distinguait le « phénomène » accessible à nos sens et scientifiquement constatable et l’essence des choses, le « noumène », sans doute existant, mais à jamais inconnaissable, Auguste Comte assignait à la science théorique la mission exclusive de classer et de prévoir quantitativement les phénomènes observables sans jamais introduire dans ses constructions d’éléments hypothétiques qui ne soient pas directement reliés aux constatations expérimentales. Beaucoup de savants furent séduits par les idées d’Auguste Comte : sa méthode leur paraissait permettre une traduction littérale des données de l’expérience et constituer une barrière indispensable contre les fantaisies de l’imagination. À l’heure actuelle beaucoup de chercheurs subissent encore, parfois à leur insu, l’influence de la doctrine positiviste.
     Si l’attitude positiviste et phénoménologique a l’avantage d'être prudente et d’imposer au savant de rester sur un terrain d’une solidité éprouvée, elle a aussi des dangers : elle risque de couper les ailes à l’imagination scientifique qui a toujours eu un rôle capital dans les progrès de la science et elle peut aussi entraver ces progrès en proclamant a priori qu’il est interdit de s’engager dans telle ou telle voie de recherche ou d’interprétation. Elle tend aussi à atténuer, sinon à supprimer, la notion de réalité physique objective indépendante de nos observations : or, comme Émile Meyerson l’avait naguère fortement souligné, le physicien est toujours instinctivement un « réaliste » au sens philosophique du mot et il est douteux qu’il puisse poursuivre utilement son œuvre en abandonnant sa croyance à une réalité objective.
     Quoi qu’il en soit, depuis un siècle, la Physique a été le théâtre d’une lutte entre les théories qui admettent la possibilité de décrire, au moins dans une certaine mesure, la réalité physique par des images dans le cadre de l’espace et du temps et les théories abstraites et formelles à tendance positiviste. Le premier épisode de cette lutte a été, il y a une soixantaine d’années la querelle des atomistes et des énergétistes.   Added by: Dominique Meeùs
pp.203-206, Section atomisme et Énergétique.   Nous avons déjà rappelé que la Thermodynamique avait, dès ses débuts, pris la forme d’une théorie abstraite fondée sur deux principes postulés a priori. l’élégance et la rigueur des déductions ainsi obtenues, la sécurité que sa méthode paraissait présenter quand on la comparait à celle des théories impliquant des images spatiales portèrent certains physiciens à croire qu’ils avaient trouvé là la véritable forme des théories de la Physique. Aussi firent-ils un effort pour couler dans un moule analogue l’exposé de toutes les branches de cette science. Cette ««Énergétique«» générale avait évidemment un caractère de rigueur qui plaisait aux esprits épris de logique, mais elle avait aussi quelque chose d’aride et de dogmatique.
     Or, juste au moment où se développait l’Énergétique, l’hypothèse atomique qui considérait la matière et aussi l’électricité comme ayant une structure granulaire s’imposait de plus en plus à l’attention des physiciens. Conçue par les penseurs de la Grèce antique, sous-jacente aux premières théories mécanistes de la Physique moderne, elle finissait, après bien des résistances, par devenir peu à peu la base de la Chimie générale parce qu’elle offre l’interprétation la plus naturelle des grandes lois de discontinuité sur lesquelles cette science est fondée. Les physiciens ne pouvaient donc plus s’en désintéresser et tous ceux qui aimaient les représentations figurées l’adoptèrent avec joie. On vit alors Maxwell, Clausius, Boltzmann reprendre et développer la théorie cinétique des gaz qui cherche à déduire les propriétés des corps gazeux de l’hypothèse qu’ils sont formés de molécules animées de mouvements rapides et incoordonnés. Cette explication à base de Mécanique ne tarda pas à remporter des succès considérables : interprétation des notions de pression et de température, déduction de la loi de Mariotte-Gay-Lussac, etc. Puisqu’elle pénétrait victorieusement sur un terrain qui paraissait réservé à la Thermodynamique, il était tout naturel de chercher à la généraliser de façon à obtenir une Thermodynamique fondée non plus sur des principes abstraits, mais sur des images mécaniques intuitives. Ce fut le but poursuivi par la Mécanique statistique de Boltzmann et de Gibbs. On connaît ses succès : l’interprétation des notions de pression et de températures, celle de l’entropie par la notion de probabilité, la justification par le théorème de l’équipartition de l’énergie des lois des chaleurs spécifiques, etc. Au grand scandale des énergétistes, elle remplaçait par des images concrètes et intuitives la Thermodynamique abstraite des principes et bientôt elle se montrait même plus féconde puisqu’elle interprétait des phénomènes tels que le mouvement brownien et les fluctuations que la Thermodynamique des principes ne pouvait ni prévoir ni expliquer.
     Partout l’Atomisme triomphait. L’électron se révélait aux expérimentateurs et Lorentz l’introduisait, avec le succès que l’on sait, dans la théorie électromagnétique. Les atomes devenaient presque des réalités sensibles : le physicien les comptait et les suivait dans leur course, il commençait à s’en faire une représentation détaillée que la fameuse théorie de Bohr allait bientôt préciser. Et la découverte des « quanta de lumière », des photons, introduisait, à l’étonnement de tous, les idées de discontinuité et d’atomisme dans un domaine qui paraissait une « chasse gardée » pour les conceptions continues de la théorie du champ. Il faut relire le magnifique ouvrage de Jean Perrin, les Atomes, pour se rendre compte à quel point, vers 1910, l’hypothèse atomique paraissait partout victorieuse, son triomphe marquant tout naturellement un retour vers la représentation des phénomènes par figures et par mouvements. Évidemment l’image du monde physique n’était pas entièrement ramenée à une base mécanique parce que la notion de champ restait nécessaire et se juxtaposait à celle de corpuscule : mais nous avons vu que la théorie de la Relativité permettait d’espérer obtenir une synthèse de ces deux notions par une représentation spatio-temporelle convenable.
     Il y a cinquante ans, les énergétistes les plus convaincus abandonnaient eux-mêmes la lutte : les théories abstraites et formelles paraissaient vaincues et céder définitivement la place aux théories figurées avec représentation spatio-temporelle.
     Mais l'histoire n’est jamais finie et, avec l’éclosion de la Physique quantique actuelle, une nouvelle phase allait commencer.   Added by: Dominique Meeùs
pp.206-209, Section la physique quantique actuelle et le néo-positivisme.   La découverte du quantum (faction faite par Planck en 1900 dans ses recherches sur le rayonnement noir a introduit en Physique un nouvel élément de discontinuité d’une nature très mystérieuse qui est certainement très intimement relie à la structure corpusculaire de la matière et des radiations. Après s’être développée sous la forme très fructueuse, mais bâtarde, de l’ancienne théorie des quanta qui superposait arbitrairement des discontinuités quantiques à des calculs mécaniques du type classique et dont le triomphe a été la théorie quantique de l’atome de M. Bohr et de ses continuateurs, la Physique quantique a pris, à partir de 1923, une forme nouvelle : celle de la Mécanique ondulatoire. À ses débuts et dans les conceptions de son premier pionnier, la Mécanique ondulatoire devait rendre compte de la dualité onde-corpuscule, ou plus généralement de la dualité des champs et des grains, en réalisant une fusion de ces deux aspects de la réalité physique, fusion où la constante de Planck interviendrait d’une façon essentielle, mais qui respecterait entièrement l’idée classique de la représentation des phénomènes dans le cadre spatio-temporel. Les idées de la Mécanique ondulatoire furent bientôt mises sous une forme mathématique plus complète par les travaux de M. Schrödinger qui put calculer par une méthode rigoureuse les énergies des états stationnaires des systèmes quantifiés : elle reçut ensuite en 1927 une magnifique confirmation expérimentale par la découverte par MM. Davisson et Germer de la diffraction des électrons par les cristaux. Mais la question de l’interprétation du dualisme onde-corpuscule restait ouverte et les tentatives faites par l’auteur de ces lignes pour l’interpréter dans le sens indiqué ci-dessus (théorie de la double solution, 1927) semblaient se heurter à de très graves difficultés.
     Or, d’autres théoriciens suivaient alors une voie qui devait les conduire à une interprétation tout à fait différente. M. Heisenberg avait, en 1925, développé une Mécanique quantique qui, M. Schrödinger le montra l’année suivante, n’est qu’une transposition mathématique de la Mécanique ondulatoire, mais qui, au lieu de rechercher une description spatio-temporelle du dualisme onde-corpuscule, se présentait comme une théorie abstraite à tendance phénoménologique qui n’introduisait (ou ne prétendait introduire) que des grandeurs directement reliées aux données expérimentales. D’autre part, M. Bohr, avec la grande autorité qui s’attachait à la personne de l’auteur de la théorie quantique de l’atome, affirmait qu’aucune représentation spatio-temporelle des transitions quantiques n’était possible, abandonnant ainsi l’idée d’une représentation des phénomènes par figures et par mouvements même dans l’interprétation la plus large de cette expression. Enfin, les travaux de M. Bohr sur la Mécanique ondulatoire conduisaient à attribuer d’une façon certaine une signification « probabiliste » à l’onde Ψ imaginée par cette théorie tandis que les fines et suggestives analyses de MM. Heisenberg et Bohr sur les relations d’incertitude et l’impossibilité de mesurer simultanément les grandeurs « canoniquement conjuguées » ouvraient des horizons inattendus sur la portée des conceptions nouvelles de la Physique quantique.
     Ainsi est née l’interprétation actuelle de la Mécanique ondulatoire et plus généralement de la Physique quantique qui, tout en admettant l’existence de manifestations corpusculaires discontinues et d’apparentes propagations d’ondes, en est arrivée à ne considérer tout l’ensemble de la théorie nouvelle que comme un formalisme permettant une prévision exacte de la probabilité des phénomènes observables. On ne cherche plus du tout dans cette manière de voir à expliquer par des images spatio-temporelles le dualisme onde-corpuscule : on se borne à le considérer comme traduisant deux aspects « complémentaires » de la réalité physique que l’on doit constater comme un fait d’expérience sans qu’il soit possible d’en préciser davantage la nature.
     Revenant au point de vue des énergétistes, les théoriciens actuels de la Physique quantique ont été amenés à la présenter sous la forme d’une théorie abstraite reposant sur une axiomatique et ayant pour but unique de prévoir les phénomènes observables sans qu’il soit utile, ou même légitime, de chercher à se faire une image du monde physique dans le cadre de l’espace et du temps. Naturellement cette orientation a été favorablement accueillie par les physiciens et les philosophes à tendance positiviste et elle a été à l’origine du développement de l’École néopositiviste connue sous le nom d’École de Vienne. Mais, même en dehors de ce courant d’idées philosophiques, la grande majorité des théoriciens de la Physique, séduits par l’élégance et la rigueur du formalisme de la nouvelle interprétation, y ont adhéré et l’ont prise, plus ou moins explicitement, comme base de leurs travaux. C’est donc dans le cadre de cette interprétation que se sont effectuées depuis vingt-cinq ans les innombrables applications qu’ont reçues, dans le domaine de la Microphysique, la Mécanique ondulatoire et ses prolongements.
     Cependant la réussite d’un formalisme mathématique ne suffit pas à prouver à elle seule que l’interprétation qu’on en donne soit exacte. Des savants aussi éminents que Planck, Einstein et Schrödinger ont toujours protesté contre l’orientation nouvelle de la Physique théorique. Einstein, en particulier, a maintes fois affirmé que, si le formalisme actuel de la Mécanique ondulatoire qui emploie l’onde Ψ à signification probabiliste est certainement exact, il ne donne pas une description « complète » de la réalité physique : sans doute dans sa pensée, une description complète devrait s’effectuer, dans le cadre d’un espace-temps convenablement généralisé, par une théorie du champ qui réaliserait la fusion des notions d’ondes et de corpuscules en introduisant le quantum d’action. Peut-être une telle théorie pourrait-elle parvenir, tout en justifiant tous les succès remportés par le formalisme probabiliste actuel, à le dépasser en prévoyant de nouveaux phénomènes dont il ne peut rendre compte, de même qu’il y a un demi-siècle la théorie atomique était parvenue, tout en justifiant les succès de la Thermodynamique classique, à la dépasser par la prévision de phénomènes nouveaux. La plupart des théoriciens actuels de la Physique, dont certains à tendances idéalistes semblent même aller jusqu’à douter de l’existence d’une réalité physique objective, ne pensent pas qu’il puisse en être ainsi. Mais seul évidemment l’avenir pourra trancher une telle question.   Added by: Dominique Meeùs
pp.209-2011, Section quelques remarques sur les procédés de raisonnement et de découverte en physique.   Déduction et Induction. — Si l’on réfléchit aux procédés que l’homme emploie pour construire les théories scientifiques qui lui permettent de représenter et de prévoir les phénomènes naturels, on est amené à reconnaître que notre esprit suit dans cette recherche deux voies très différentes. On les a nommés le raisonnement déductif et le raisonnement inductif.
     Le raisonnement déductif part de conceptions et de postulats admis a priori et il cherche à en tirer, à l’aide des règles de la logique telles qu’elles s’imposent à notre esprit, des conséquences qu’ensuite on pourra comparer avec les faits. Le langage mathématique offre à la déduction l’instrument précis dont il a besoin pour passer, avec le plus de sécurité possible, des prémisses aux conclusions. Raisonnant d’abord sur des formules abstraites où les grandeurs physiques sont représentées par des symboles, le savant qui emploie le raisonnement déductif dévide ses équations suivant les règles de la logique et aboutit aux relations finales qu’il veut vérifier. Il doit alors remplacer les symboles par des chiffres pour obtenir des prévisions numériques comparables avec l’expérience : le raisonnement cède la place au calcul. Tel est le schéma du raisonnement déductif tel qu’il est usité dans toutes les sciences qui sont assez précises, assez avancées, pour permettre l’application des formalismes mathématiques. Par sa clarté et par sa rigueur, le raisonnement déductif apparaît au premier abord comme l’instrument essentiel du progrès scientifique : nous dirons plus loin pourquoi ceci est moins vrai qu’on ne pourrait le croire.
     Le raisonnement inductif est beaucoup moins facile à définir et à analyser. S’appuyant sur l'analogie et sur l’intuition, faisant appel à l’esprit de finesse plus qu’à l'esprit de géométrie, il cherche à deviner ce qui n’est pas encore connu de façon à établir des principes nouveaux qui pourront servir de bases à de nouvelles déductions. On voit combien le raisonnement inductif est plus hardi et plus périlleux que le raisonnement déductif : la déduction, c’est la sécurité, du moins en apparence ; l’induction, c’est le risque. Mais le risque est la condition nécessaire de toutes les grandes prouesses et c'est pourquoi l’induction, parce qu’elle cherche à s’écarter des voies déjà tracées, parce qu’elle tente intrépidement d’élargir les cadres déjà existants de la pensée, est la véritable source des grands progrès scientifiques.
     Ce qui fait la force de la déduction rigoureuse, c’est qu'elle peut aller droit devant elle avec une sécurité et une précision presque absolues ; mais ce qui fait sa faiblesse, c’est que, partant d’un ensemble de postulats considérés comme certains, elle ne peut en tirer que ce qu’ils contenaient déjà. Dans une science achevée où les principes de base seraient complets et définitifs, la déduction serait la seule méthode acceptable. Mais dans une science incomplète qui se fait et qui progresse, comme l’est nécessairement la science humaine, la déduction ne peut fournir que des vérifications ou des applications, importantes certes très souvent, mais qui n’ouvrent pas de chapitres vraiment nouveaux. Les grandes découvertes, les bonds en avant de la pensée scientifique se font par l’induction, méthode aventureuse, mais seule vraiment créatrice. C’est toujours par des modifications apportées aux conceptions et aux postulats qui avaient précédemment servi de bases aux raisonnements déductifs que se sont ouvertes toutes les ères nouvelles de la Science.
     Naturellement, il ne faut pas en conclure que la rigueur du raisonnement déductif n’a pas de valeur : c’est elle seule, en effet, qui empêche l’imagination de s’égarer, qui permet, quand de nouveaux points de départ ont été découverts par l’induction, d’en prévoir les conséquences et d’en confronter les conclusions avec les faits. La déduction peut seule assurer le contrôle des hypothèses et constituer un précieux antidote contre les excès de la fantaisie imaginative. Mais, emprisonnée dans sa propre rigueur, la déduction ne peut s’échapper du cadre où elle s’est, elle-même, dès le début enfermée et par suite elle ne peut rien apporter d’essentiellement nouveau.   Added by: Dominique Meeùs
pp.211-212, Section axiomatique et découverte.   Les considérations qui précèdent expliquent aisément pourquoi, dans l’exposé des théories scientifiques en dehors peut-être du domaine des mathématiques pures, la méthode dite « axiomatique » est à la fois la plus satisfaisante pour notre raison et en pratique la moins féconde. Beaucoup de bons esprits, particulièrement sensibles à la beauté logique des modes d’exposition, ont fait de grand efforts pour développer rigoureusement des théories physiques bien vérifiées sous une forme axiomatique. Sans doute de tels efforts ne sont pas inutiles: ils permettent de bien préciser les concepts et les postulats dont on part, de bien mettre à nu tout le squelette formel d’une théorie et de bien déterminer leur domaine exact d’application et l’étendue des conséquences qu’on peut en tirer. Le malheur est qu’à peine a-t-on terminé ce travail souvent long et délicat d’axiomatisation, déjà la théorie exposée s’est montrée insuffisante pour l’interprétation des faits expérimentaux et qu’on a dû reconnaître la nécessité d’en élargir et souvent d’en bouleverser entièrement les bases. C’est ainsi, comme nous l’avons vu plus haut, que l’on est parvenu à donner à la Thermodynamique et à l’Énergétique classiques une forme très rigoureuse à l’heure même où la découverte de la structure atomique de la matière, des fluctuations et de la véritable nature du mouvement brownien venaient de mettre en évidence l’insuffisance de ces théories abstraites.
     On ne peut pas dire que les théories axiomatiques rigoureuses sont inutiles, mais en général elles ne contribuent guère aux progrès les plus remarquables de la Science. Et la raison profonde en est que la méthode axiomatique a justement pour but d’éliminer l’intuition inductive qui, seule, peut permettre d’aller au-delà de ce qui est déjà connu : elle peut être une bonne méthode de classification et d’enseignement, mais elle n’est pas une méthode de découverte.   Added by: Dominique Meeùs
wikindx 6.2.0 ©2003-2020 | Total resources: 1310 | Username: -- | Bibliography: WIKINDX Master Bibliography | Style: American Psychological Association (APA) | Database queries: 83 | DB execution: 0.06179 secs | Script execution: 0.11130 secs