Bibliographie générale

List Resources

Displaying 1 - 11 of 11 (Bibliography: WIKINDX Master Bibliography)
Order by:

Ascending
Descending
Use all checked: 
Use all displayed: 
Use all in list: 
Bachelard, G. (1975). Le rationalisme appliqué 5th ed. Paris: Presses universitaires de France.  
Added by: Dominique Meeùs 2010-11-13 19:53:15 Pop. 0%
      La science de Lavoisier qui fonde le positivisme de la balance est en liaison continue avec les aspects immédiats de l’expérience usuelle. Il n’en va plus de même quand on adjoint un électrisme au matérialisme. Les phénomènes électriques des atomes sont cachés. Il faut les instrumenter dans un appareillage qui n’a pas de signification directe dans la vie commune. Dans la chimie lavoisienne on pèse le chlorure de sodium comme dans la vie commune on pèse le sel de cuisine. Les conditions de précision scientifique, dans la chimie positiviste, ne font qu’accentuer les conditions de précision commerciale. D’une précision à l’autre, on ne change pas la pensée de la mesure. Même si on lit la position de l’aiguille fixée au fléau de la balance avec un microscope, on ne quitte pas la pensée d’un équilibre, d’une identité de masse, application très simple du principe d’identité, si tranquillement fondamental pour la connaissance commune. En ce qui concerne le spectroscope de masse, nous sommes en pleine épistémologie discursive. Un long circuit dans la science théorique est nécessaire pour en comprendre les données. En fait, les données sont ici des résultats.
     On nous objectera que nous proposons une distinction bien délicate pour séparer la connaissance commune et la connaissance scientifique. Mais il est nécessaire de comprendre que les nuances sont ici philosophiquement décisives. Il ne s’agit rien moins que de la primauté de la réflexion sur l’aperception, rien moins que de la préparation nouménale des phénomènes techniquement constitués.
de Broglie, L. (1960). Sur les sentiers de la physique. In Sur les sentiers de la science (pp. 191–215). Paris: Éditions Albin Michel.  
Added by: Dominique Meeùs 2012-07-08 17:42:09 Pop. 0%
      […]
     La théorie physique, lorsqu’elle est parvenue à obtenir une représentation mathématique cohérente des phénomènes connus, cherche à en déduire la prévision de phénomènes nouveaux. Parfois ces prévisions sont confirmées par de nouvelles recherches expérimentales et la théorie ainsi mise à l’épreuve en sort renforcée. Parfois, et l’on peut dire qu’à la longue ceci finit toujours par se produire, ou bien l’expérience ne vérifie pas une des prévisions de la théorie ou bien elle fournit tout à coup, souvent sans qu’on l’ait cherché volontairement, un fait nouveau qui ne cadre pas avec la théorie : alors il faut réformer et transformer l’édifice théorique précédemment construit. Mais, et ceci est essentiel, cette transformation, parce qu’elle doit toujours permettre de rendre compte des faits précédemment observés, devra être effectuée de façon à englober d’une manière ou d'une autre, et souvent à titre de première approximation, la théorie antérieure et l’ensemble des équations sur lesquelles elle reposait dont seule l’interprétation aura varié. Ainsi, la nouvelle théorie pourra retrouver toutes les prévisions exactes de l’ancienne, mais, se détachant d’elle dans certaines circonstances, elle pourra prévoir exactement les faits observés, là où l’autre ne pouvait y réussir. C’est par ces englobements successifs que la Physique théorique parvient à progresser sans renier aucun de ses succès antérieurs et à faire entrer dans le sein d’une synthèse qui se transforme et s’élargit sans cesse un nombre croissant de faits expérimentaux. Pour n’en citer qu’un des exemples les plus mémorables, la théorie électromagnétique de la Lumière de Maxwell est parvenue à retrouver, en les interprétant différemment, toutes les équations qu’avait fournies à Fresnel et à ses continuateurs l’image d’un éther élastique support des vibrations lumineuses, mais elle a pu, en outre, faire entrer la lumière, comme cas très particulier, dans la catégorie infiniment plus vaste des ondes électromagnétiques et elle a pu aussi conduire à une interprétation remarquable des phénomènes électro et magnéto-optiques que la conception de Fresnel ne pouvait pas atteindre.
     Avant de terminer ces considérations générales sur le rôle réciproque de l’expérience et de la théorie, soulignons que le résultat de l’expérience n’a jamais le caractère d’un fait brut que l’on se borne à constater : il y a toujours dans l’énoncé de ce résultat une part d’interprétation, donc une intervention de conceptions théoriques. Le physicien qui mesure un courant avec un ampèremètre ne se contentera pas de dire : « J’ai vu l’aiguille de mon appareil de mesure venir se placer sur tel trait de sa graduation » car sous cette forme cette constatation n’aurait pas d’intérêt ; il dira : « J’ai mesuré un courant de dix ampères », mais, si cette fois son affirmation prend de l’intérêt, elle suppose tout un ensemble de conceptions théoriques sur les lois de l’électricité, sur le fonctionnement de l’appareil de mesure, etc. Cette intervention inévitable d’idées théoriques dans l’énoncé des résultats expérimentaux a tellement frappé certains esprits qu’ils ont été jusqu’à se demander s’il y avait vraiment des faits expérimentaux existant indépendamment de nos conceptions théoriques et on a été jusqu’à dire : « Le savant crée le fait scientifique. » Il y a là certainement une exagération qu’Henri Poincaré avait naguère fortement combattue. Le fait scientifique a sans aucun doute une existence indépendante des conceptions dont on se sert pour l’exprimer : parfois même, il se refuse à confirmer l’interprétation théorique qu’on voulait lui donner. Néanmoins, il faut retenir des analyses qui ont été faites à ce sujet, notamment par Édouard Leroy et par Pierre Duhem il y a une soixantaine d'années, que la notion de fait expérimental est moins simple qu’on ne pourrait le croire tout d’abord : il n’y a pas de fait entièrement « brut ». Les données de nos sens ne peuvent servir à la construction de la science qu’après que nous les avons convenablement interprétés et dans cette interprétation interviennent forcément certaines conceptions de notre esprit, c’est-à-dire des idées théoriques. Et ceci montre que l’on ne peut pas séparer l’une de l’autre d’une façon absolument nette l’expérience et la théorie et considérer que le fait expérimental est une donnée indépendante de toute interprétation. La relation entre l’expérience et la théorie est plus subtile et plus complexe : les constatations expérimentales ne prennent leur valeur scientifique qu’après un travail de notre esprit qui, si rapide et spontané soit-il, imprime toujours au fait brut la marque de nos tendances et de nos conceptions.
Darwin, C. La variation des animaux et des plantes sous l’action de la domestication.  
Added by: admin 2009-03-15 09:42:45 Pop. 0%
      Dans les recherches scientifiques, il est licite d’inventer une hypothèse quelconque ; si celle-ci explique de grandes classes de faits indépendants, on l’élève au rang de théorie bien établie.
     On peut envisager le principe de sélection naturelle comme une simple hypothèse, rendue cependant probable par ce que nous savons positivement de la variabilité des êtres organiques à l’état de nature, de la lutte pour l’existence, de la préservation quasiment inévitable des variations qui s’ensuit, et de la formation analogique des races domestiques.
     Or cette hypothèse peut être testée — et c’est là à mon sens la seule manière honnête et légitime d’aborder la question dans son ensemble — en examinant si elle explique plusieurs grandes classes de faits indépendants, tels que la succession géologique des êtres organiques, leur distribution dans les temps passés et présents, leurs affinités mutuelles et leurs homologies. Si le principe de sélection naturelle explique bien ces grands ensembles de faits, elle doit être acceptée.
Duhem, P. (1908). Σώζειν τὰ φαινόμενα (sauver les phénomènes): Essai sur la notion de théorie physique de platon à galilée. Paris: Librairie scientifique A. Hermann et fils.  
Last edited by: Dominique Meeùs 2009-12-01 00:15:39 Pop. 0%
      Voici donc en quels termes se trouve formulée, au Commentaire de Simplicius, cette tradition platonicienne : « Platon admet en principe que les corps célestes se meuvent d’un mouvement circulaire, uniforme et constamment régulier (*) ; il pose alors aux mathématiciens problème : Quels sont les mouvements circulaires, uniformes et parfaitement réguliers qu’il convient de prendre pour hypothèses, afin que l’on puisse sauver les apparences présentées par les planètes ? Τίνων ὑποτεθέντων δι᾽ ὁμαλῶν καὶ ἐγκυκλιων καὶ τεταγμένων κινὴσεων δυνήσεται διασωθῆναι τὰ περὶ τοὺς πλανωμένους φαινόμενα ; »
(*) C’est-à-dire constamment de même sens.
Finley, M. I. (1981). Esclavage antique et idéologie moderne D. Fourgous, Trans. Paris: Les Éditions de Minuit.  
Last edited by: Dominique Meeùs 2012-05-28 00:24:55 Pop. 0%
      l’axiome méthodologique élémentaire que Charles Darwin exposait en ces termes en 1861 : « On disait beaucoup voici environ trente ans que les géologues devaient se contenter d’observer et non de théoriser ; et je me souviens bien de la réflexion émise par quelqu’un qu’à ce compte on pourrait aussi bien descendre dans une gravière, y compter les cailloux et en décrire les couleurs. Comme c’est étrange de ne pas s’apercevoir que toute observation doit nécessairement être faite pour ou contre une théorie si elle doit rendre quelque service. » (Darwin (1903, p.195).)
Glashow, S. L. (1997). Le charme de la physique: La recherche des secrets de la matière O. Colardelle, Trans. Paris: Éditions Albin Michel.  
Last edited by: Dominique Meeùs 2010-10-03 16:36:45 Pop. 0%
      Nous tentons d’appréhender la naissance, l’évolution et le destin de notre Univers. Nous voulons savoir pourquoi les choses doivent être exactement ce qu’elles sont. Nous voulons dévoiler la profonde simplicité de la Nature, car il est dans la nature des physiciens des particules (et de quelques autres) d’avoir foi dans la simplicité, et de croire contre toute raison qu’en fait les lois fondamentales de la physique, de la Nature ou de la réalité sont tout à fait élémentaires et compréhensibles. Cette foi s’est révélée jusqu’ici extraordinairement productive : ceux qui l’ont réussissent souvent, et ceux qui en manquent échouent toujours.
      La science progresse souvent dans cet ordre : on observe un résultat surprenant en laboratoire, et le cadre théorique existant doit alors être élargi ou amélioré afin d’expliquer ce nouveau phénomène. C’est ainsi que les irrégularités constatées dans le déplacement de la planète Uranus ont conduit à la prédiction remarquablement exacte d’une nouvelle planète : Neptune. De la même manière, c’est en remarquant que la patte coupée d’une grenouille se contractait lorsqu’il y appliquait un scalpel que Galvani a compris la nature du courant électrique, ce qui a conduit à la construction de la première pile électrique par Alessandro Volta. Les découvertes surprenantes et tout à fait imprévues des rayons X, de la radioactivité et des particules étranges ont elles aussi suivi la même voie d’évolution de la science.
     En de rares occasions, l’ordre historique normal s’inverse, lorsque l’invention théorique précède la découverte expérimentale. C’est ainsi qu’en établissant sa table périodique des éléments, Mendeleïev remarqua qu’elle comptait plusieurs cases vides. Il réalisa qu’elles correspondaient à des éléments chimiques encore inconnus, dont il calcula les propriétés physico-chimiques. Quelques années plus tard, ces éléments dont il avait prédit l’existence furent trouvés dans la Nature, et nommés scandium, gallium et germanium en l’honneur des pays de leur découverte. Mendeleïev fut alors reconnu comme un grand scientifique, qui possédait le courage de ses convictions.
     En 1961, Murray Gell-Mann et Yuval Ne’eman inventerent un système de classification qui ressemblait beaucoup à une table périodique des particules élémentaires. Selon cette « voie octuple », les particules étaient regroupées dans des figures géométriques simples, hexagones et triangles. Là encore, une de ces figures comportait un trou correspondant à une particule inconnue. Peu de scientifiques prirent au sérieux cette nouvelle et étrange théorie, mais des expérimentateurs du Laboratoire national de Brookhaven finirent cependant par découvrir en 1964 la particule prédite par Gell-Mann. Cette découverte de l’ « oméga-moins » força les païens à se convertir et fit de la voie octuple un dogme scientifique.
     Le succès de la voie octuple s’explique aujourd’hui par la théorie des quarks, de la même façon que celui de la table périodique des éléments est justifié par la théorie quantique de la structure atomique. Gell-Mann lui-même imagina dès 1963 la notion de quarks (qui fut également inventée indépendamment par George Zweig, devenu depuis neurobiologiste), mais il s’écoula pourtant une décennie avant que ces idées soient partout acceptées.
     […]
     Les lois fondamentales de la théorie des quarks postulent qu’il est possible de construire une particule subnucléaire à partir de n’importe quelle combinaison de ces trois quarks. Il existe aussi une autre famille de particules subnucléaires, les mésons, qui sont composés d’un quark et d’un antiquark. Une grande part de la diversité que présente la physique subnucléaire provient de ce que trois types de quarks différents peuvent être utilisés.
     En 1964, peu de temps après l’invention des quarks, James Bjorken et moi·même avançâmes qu’il devait exister un quatrième type de quark, que nous appelâmes « quark charmé », mais ce n’est que dix ans plus tard que la première particule contenant un quark charmé fut produite et détectée en laboratoire.
     Notre raisonnement s’appuyait là encore sur une « table périodique » : non pas une table d’éléments, ni de particules subnucléaires, mais une table de quarks et de leptons.
      […] je possède (et je ne suis sûrement pas le seul) une foi injustifiable en l’ultime simplicité, et en l’existence d’une théorie unique et véritable : foi injustifiable, mais toujours justifiée par les progrès remarquables de notre discipline [la physique des particules].
Huxley, J. (1950). La génétique soviétique et la science mondiale J. Castier, Trans. Paris: Stock.  
Added by: Dominique Meeùs 2009-08-03 13:51:51 Pop. 0%
      Ils [les mitchouriniens] n’exigent ni n’acceptent le même genre de preuves que les savants professionnels d’autres pays ; ils confondent le fait avec la doctrine, et la théorie avec l’hypothèse ou la croyance ; ils font appel à l’autorité passée, au lieu du fait établi présent, et à l’utilité au lieu de la vérité ; ils acceptent les critères autres que scientifiques, et y insistent même, dans ce qui prétend être une discussion scientifique. Bref, comme nous l’avons constaté, Ashby et moi, en conversation avec Lyssenko, ils ne parlent tout bonnement pas le même langage que les savants occidentaux.
     D’une façon générale, ils trahissent un manque d’appréciation du caractère, de la validité, et de l’importance spéciale de la méthode scientifique, telle qu’elle a été élaborée au cours des quelques derniers siècles.
      Pour eux [Bateson, Punnett], comme pour moi, ou n'importe que néo-mendélien dont le nom puisse me revenir en mémoire, la formulation d’une loi est une tentative de traduire en termes généraux, et si possible, simples et, en outre quantitatifs, toutes les régularités pouvant être découvertes dans les phénomènes étudiés.
     Une fois qu’une loi est formulée, sa validité (ou non-validité) peut être mise à l’épreuve en lui opposant des phénomènes nouveaux, de façon à en perfectionner l’exactitude, ou à en dénoncer les insuffisances ou le caractère illusoire. Elle n’a rien d’éternel ni d’immuable. C’est une façon sténographique d’exprimer que, dans certaines circonstances, certains résultats ont été obtenus dans le passé, et qu’on peut s’y attendre à l’avenir. […]
     Ceci m’amène à un autre point relatif aux lois scientifiques. À mesure que se poursuivent les travaux sur un sujet, les lois qui s’y rapportent tendent à paraître de moins en moins importantes, mais se fondent dans une construction plus vaste, une large théorie, ou un grand système de phénomènes tous liés entre eux sur base de certains faits et conceptions simples et fondamentaux.
      Pour eux [Bateson, Punnett], comme pour moi, ou n'importe que néo-mendélien dont le nom puisse me revenir en mémoire, la formulation d’une loi est une tentative de traduire en termes généraux, et si possible, simples et, en outre quantitatifs, toutes les régularités pouvant être découvertes dans les phénomènes étudiés.
     Une fois qu’une loi est formulée, sa validité (ou non-validité) peut être mise à l’épreuve en lui opposant des phénomènes nouveaux, de façon à en perfectionner l’exactitude, ou à en dénoncer les insuffisances ou le caractère illusoire. Elle n’a rien d’éternel ni d’immuable. C’est une façon sténographique d’exprimer que, dans certaines circonstances, certains résultats ont été obtenus dans le passé, et qu’on peut s’y attendre à l’avenir. […]
     Ceci m’amène à un autre point relatif aux lois scientifiques. À mesure que se poursuivent les travaux sur un sujet, les lois qui s’y rapportent tendent à paraître de moins en moins importantes, mais se fondent dans une construction plus vaste, une large théorie, ou un grand système de phénomènes tous liés entre eux sur base de certains faits et conceptions simples et fondamentaux.
Madaule, J. (1953). La pensée historique de toynbee. In Le monde et l’Occident (pp. 9–65). Paris: Desclée De Brouwer.  
Added by: Dominique Meeùs 2010-07-30 00:12:20 Pop. 0%
      Je crois que nous touchons ici au défaut le plus apparent de la méthode de Toynbee, qui est de pratiquer l’extrapolati0n au delà des limites permises et d’écrire une histoire qui est bel et bien déductive, alors qu’elle se donne l’apparence d’être inductive. Il part, en effet, d’une grande hypothèse cosmique, nullement démontrée, ni même démontrable, et qu’il s’agirait ensuite de vérifier à la lumière de l’Histoire. Nous avons dit en quoi consiste cette hypothèse, qui est beaucoup plus une hypothèse de naturaliste qu’une hypothèse d’historien. L’Humanité paraît emportée dans une espèce d’Évoluti0n créatrice qui doit beaucoup aux intuitions bergsoniennes.
      Naissance, développement, breakdown, Temps des Troubles, État universel, Église et Épopée, désintégration, toutes ces catégories sont admirablement adaptées à l’exemple choisi [la Civilisation hellénique]. Mais c’est ici qu’intervient fâcheusement l’extrapolation. Il va falloir à tout prix découvrir les mêmes phases dans les autres Civilisations. Et voilà où les faits sont soumis à une rude épreuve.
      Les historiens qui se soucient avant tout d’exactitude ont eu beau jeu de montrer combien les arguments de Toynbee sont parfois faibles et reposent ou sur des faits controuvés ou sur des faits mal interprétés. Ils lui reprochent de se contenter de documents de seconde ou de troisième main. Mais n’est-ce point là condamner le projet lui-même d’une Histoire universelle ? Il est impossible, en effet, de tenter une pareille entreprise si l’on oblige l’historien à ne parler que de ce qu’il connaît de première main. Je crois cependant qu’une pareille entreprise est à la fois légitime et nécessaire et que, si l’on doit noter les faiblesses de Toynbee, il faut en même temps reconnaître que ce qu’il a essayé devait être tenté.
     Lorsque, en effet, nous considérons dans son ensemble l’Histoire de l’humanité, nous ne pouvons pas ne pas être frappés par certaines analogies. […] Ces analogies de structure et de comportement demandent à être sérieusement étudiées, et c’est un fait qu’elles l’ont été jusqu’ici fort peu par les historiens. Au fur et à mesure qu’ils s’enfoncent dans la période qu’ils ont choisie pour leur spécialité, nous les voyons insister sur les caractères propres de cette période, comme s’ils n’étaient plus capables que de saisir les différences. Tout rapprochement, toute analogie leur semblent dès lors incongrus. Cela provient à la fois d’un excès de science et d’une certaine ignorance. Ils connaissent trop bien une partie de l’Histoire, mais ils ignorent par trop tout le reste.
     […]
     La tentative était légitime, car nous disposons à présent d’un matériel suffisant pour permettre des confrontations utiles. Les derniers siècles n’ont pas seulement été des siècles d’investigation et de conquête dans le domaine géographique ; ils ont été aussi des siècles de découvertes dans le domaine de l’Histoire. […]
     Cette tentative était en outre nécessaire. […]
Quinn, H. (2009). What is science ? Physics Today, 8–9.  
Added by: Dominique Meeùs 2010-11-06 08:22:05 Pop. 0%
      Theories and models develop over time. Based on data, they undergo a long-term process of testing and refinement before becoming accepted scientific explanations or tools in a given domain. […]
     Scientific theories, even when generally accepted after much testing and refinement, are still never complete. Each can be safely applied in some limited domain, some range of situations or conditions for which it has been well tested. Each might also apply in some extended regime where it has yet to be tested, and may have little or nothing to offer in still more distant domains. That is the sense in which no theory can be proven to be true; truth is too complete a notion. We need to emphasize that the incompleteness of theory in no way compromises the stability over time of well-established understanding in science—an important notion that is seldom made explicit.
Van Duppen, D., & Hoebeke, J. (2016). De supersamenwerker. Anvers: EPO.  
Added by: Dominique Meeùs 2016-12-20 21:12:52 Pop. 0%
      Frans de Waal schrijft: ‘De vernistheorie was lange tijd de overheersende biologische opvatting over de aard van de mens…’
Weinberg, S. (1993). Dreams of a final theory: Search for the ultimate laws of nature. Londres: Hutchinson Radius.  
Last edited by: Dominique Meeùs 2011-05-03 08:46:32 Pop. 0%
      […] a half-serious maxim attributed to Eddington : « One should never believe any experiment until it has been confirmed by theory. »
     […] I have been emphasizing the importance of theory here because I want to counteract a widespread point of view that seems to me overly empiricist. […] It appears that anything you say about the way that theory and experiment may interact is likely to be correct, and anything you say about the way that theory and experiment must interact is likely to be wrong.
      Finally one can imagine a category of experiments that refute well-accepted theories, theories that have become part of the standard consensus of physics. Under this category I can find no examples whatever in the past one hundred years. There are of course many cases where theories have been found to have a narrower realm of application than had been thought. Newton’s theory of motion does not apply at high speeds. Parity, the symmetry between right and left, does not work in the weak forces — and so on. But in this century no theory that has been generally accepted as valid by the world of physics has turned out simply to be a mistake, the way that Ptolemy’s epicycle theory of planetary motion or the theory that heat is a fluid called caloric were mistakes. Yet in this century, as we have seen in the cases of general relativity and the electroweak theory, the consensus in favor of physical theories has often been reached on the basis of aesthetic judgments before the experimental evidence for these theories became really compelling. I see in this the remarkable power of the physicist’s sense of beauty acting in conjunction with and sometimes even in opposition to the weight of experimental evidence.
      Positivism did harm in other ways that are less well known. There is a famous experiment performed in 1897 by J. J. Thomson, which is generally regarded as the discovery of the electron. […] It turned out that the amount of bending of these rays was consistent with the hypothesis that they are made up of particles that carry a definite quantity of electric charge and a definite quantity of mass. […] For this, Thomson regarded himself, and has become universally regarded by historians, as the discoverer of a new form of matter, a particle […] : the electron.
     Yet the same experiment was done in Berlin at just about the same time by Walter Kaufmann. The main difference between Kaufmann’s experiment and Thomson’s was that Kaufmann’s was better. […] Thomson was working in an English tradition going back to Newton, Dalton, and Prout — a tradition of speculation about atoms and their constituents. But Kaufmann was a positivist ; he did not believe that it was the business of physicists to speculate about things that they could not observe. So Kaufmann did not report that he had discovered a new kind of particle, but only that whatever it is that is flowing in a cathode ray, it carries a certain ratio of electric charge to mass.
     The moral of this story is not merely that positivism was bad for Kaufmann’s career. Thomson, guided by his belief that he had discovered a fundamental particle, went on and did other experiments to explore its properties. He found evidence of particles with the same ratio of mass to charge emitted in radioactivity and from heated metals, and he carried out an early measurement of the electric charge of the electron. This measurement, together with his earlier measurement of the ratio of charge to mass, provided a value for the mass of the electron. It is the sum of all these experiments that really validates Thomson’s claim to be the discoverer of the electron, but he would probably never have done them if he had not been willing to take seriously the idea of a particle that at that time could not be directly observed.
      I have emphasized the theoretical side of this story [general relativity] as a counterweight to a naive overemphasis on experiment. Scientists ans historians of science have long ago given up the old view of Francis Bacon, that scientific hypotheses should be developed by patient and unprejudiced observation of nature.
wikindx 6.2.0 ©2003-2020 | Total resources: 1310 | Username: -- | Bibliography: WIKINDX Master Bibliography | Style: American Psychological Association (APA) | Database queries: 39 | DB execution: 0.02459 secs | Script execution: 0.10897 secs