Bibliographie générale

List Resources

Displaying 1 - 9 of 9 (Bibliography: WIKINDX Master Bibliography)
Order by:

Ascending
Descending
Use all checked: 
Use all displayed: 
Use all in list: 
Garaudy, R. (1953). La théorie matérialiste de la connaissance. Paris: Presses universitaires de France.  
Last edited by: Dominique Meeùs 2010-11-28 12:02:45 Pop. 0%
      « Toute discussion sur la réalité ou l’irréalité de la pensée isolée de la pratique est purement scolastique. » (Marx, 2e thèse sur Feuerbach.)
     Un exemple typique de cette scolastique nous est fourni par la façon dont Carnap discute le problème de la valeur des données de l’expérience et « démontre » que ces données de l’expérience ne représentent qu’un certain degré de probabilité, qu’elles ne sont en réalité que des hypothèses. Carnap choisit cet exemple : « Cette clé est en fer », et il s’efforce de « démontrer » que la science est impuissante à établir la réalité de cette affirmation qui, selon lui, reste une hypothèse plus ou moins probable. Voici son raisonnement : Nous pouvons tenter de vérifier expérimentalement la réalité de l’affirmation p1, en vérifiant si la clé est attirée par l’aimant. L’issue positive de l’expérience fournirait la preuve partielle que la clé est en fer. « Nous pouvons après cela, poursuit Carnap, ou au lieu de cela, procéder à des expériences par les méthodes électriques, mécaniques, chimiques, optiques, etc. Si tous les résultats des expériences ultérieures s’avèrent positifs, la détermination de l’expression p1 augmente continuellement. Le nombre des conséquences tirées de p1 est illimité. Par conséquent, on aura toujours la possibilité de trouver à l’avenir des résultats négatifs. »
     Le caractère scolastique de cette argumentation apparaît plus nettement encore dans le développement que lui donne le Pr Henle (« On the certainty of empirical statements », The Journal of Philosophy, vol. 44 (1947), p. 625). Henle prend le même exemple, mais sous une forme plus générale : « Pour que l’expérience au moyen de l’aimant soit décisive, écrit-il, il faut avoir l’assurance que ce que nous mettons en contact avec notre objet est réellement un aimant. Supposons, poursuit gravement Henle, que des amis farceurs aient remplacé mon aimant par un morceau de fer ayant la même apparence !… Il faudra donc que je vérifie, par exemple que j’approche l’aimant d’une boussole. Mais la question se pose alors : la boussole est-elle réellement une boussole ?… Et ainsi de suite à l’infini. »
     On raisonne ainsi comme si l’expérimentateur devait agir en faisant abstraction de toute la pratique humaine précédente, de la pratique historique de la science. C’est une robinsonnade philosophique : notre agnostique se croit dans la situation de Robinson dans son île déserte, muni d’une clé et d’un aimant. Vendredi, qui est un farceur, peut avoir remplacé l’aimant par un morceau de fer non aimanté, et voilà Robinson obligé de vérifier lui-même le bon état de tous ses instruments en commençant par le commencement, et comme il n’y a pas plus de commencement que de fin, notre Robinson devient agnostique.
     En réalité, la science ne procède jamais ainsi.
Glashow, S. L. (1997). Le charme de la physique: La recherche des secrets de la matière O. Colardelle, Trans. Paris: Éditions Albin Michel.  
Last edited by: Dominique Meeùs 2010-10-03 16:36:45 Pop. 0%
      La science progresse souvent dans cet ordre : on observe un résultat surprenant en laboratoire, et le cadre théorique existant doit alors être élargi ou amélioré afin d’expliquer ce nouveau phénomène. C’est ainsi que les irrégularités constatées dans le déplacement de la planète Uranus ont conduit à la prédiction remarquablement exacte d’une nouvelle planète : Neptune. De la même manière, c’est en remarquant que la patte coupée d’une grenouille se contractait lorsqu’il y appliquait un scalpel que Galvani a compris la nature du courant électrique, ce qui a conduit à la construction de la première pile électrique par Alessandro Volta. Les découvertes surprenantes et tout à fait imprévues des rayons X, de la radioactivité et des particules étranges ont elles aussi suivi la même voie d’évolution de la science.
     En de rares occasions, l’ordre historique normal s’inverse, lorsque l’invention théorique précède la découverte expérimentale. C’est ainsi qu’en établissant sa table périodique des éléments, Mendeleïev remarqua qu’elle comptait plusieurs cases vides. Il réalisa qu’elles correspondaient à des éléments chimiques encore inconnus, dont il calcula les propriétés physico-chimiques. Quelques années plus tard, ces éléments dont il avait prédit l’existence furent trouvés dans la Nature, et nommés scandium, gallium et germanium en l’honneur des pays de leur découverte. Mendeleïev fut alors reconnu comme un grand scientifique, qui possédait le courage de ses convictions.
     En 1961, Murray Gell-Mann et Yuval Ne’eman inventerent un système de classification qui ressemblait beaucoup à une table périodique des particules élémentaires. Selon cette « voie octuple », les particules étaient regroupées dans des figures géométriques simples, hexagones et triangles. Là encore, une de ces figures comportait un trou correspondant à une particule inconnue. Peu de scientifiques prirent au sérieux cette nouvelle et étrange théorie, mais des expérimentateurs du Laboratoire national de Brookhaven finirent cependant par découvrir en 1964 la particule prédite par Gell-Mann. Cette découverte de l’ « oméga-moins » força les païens à se convertir et fit de la voie octuple un dogme scientifique.
     Le succès de la voie octuple s’explique aujourd’hui par la théorie des quarks, de la même façon que celui de la table périodique des éléments est justifié par la théorie quantique de la structure atomique. Gell-Mann lui-même imagina dès 1963 la notion de quarks (qui fut également inventée indépendamment par George Zweig, devenu depuis neurobiologiste), mais il s’écoula pourtant une décennie avant que ces idées soient partout acceptées.
     […]
     Les lois fondamentales de la théorie des quarks postulent qu’il est possible de construire une particule subnucléaire à partir de n’importe quelle combinaison de ces trois quarks. Il existe aussi une autre famille de particules subnucléaires, les mésons, qui sont composés d’un quark et d’un antiquark. Une grande part de la diversité que présente la physique subnucléaire provient de ce que trois types de quarks différents peuvent être utilisés.
     En 1964, peu de temps après l’invention des quarks, James Bjorken et moi·même avançâmes qu’il devait exister un quatrième type de quark, que nous appelâmes « quark charmé », mais ce n’est que dix ans plus tard que la première particule contenant un quark charmé fut produite et détectée en laboratoire.
     Notre raisonnement s’appuyait là encore sur une « table périodique » : non pas une table d’éléments, ni de particules subnucléaires, mais une table de quarks et de leptons.
      Notre discipline est menacée par le récent divorce entre l’expérimentation et la théorie des particules. Peut-être tout a-t·il commencé avec la chromodynamique quantique, cette théorie apparemment correcte qui sous-tend la structure en quarks des nucléons et la force nucléaire elle-même. Elle n’est pas simplement une théorie mais, ramenée à un cadre raisonnable, c’est l’uniquc théorie. […] La QCD n’est pas la menace que j’ai à l’esprit. Elle n’a pas provoqué de divorce entre l’expérimentation et la théorie, et a même, en fait, permis une coordination et une coopération plus étroites entre expérimentateurs et théoriciens. Mais elle a planté une graine qui a germé ailleurs. Elle suggère, et même affirme, la croyance que l’élégance et l’unicité peuvent être des critères de la vérité. ]e crois en ces critères, mais ils doivent être renforcés par l’expérience. […] Même selon ce critère, la QCD est une science. Mais peut-on en dire autant des supercordes et de leurs semblables ?
     La mécanique quantique est contagieuse, et la gravitation doit être incorporée à son cadre. Certains de mes amis théoriciens estiment avoir découvert la théorie quantique de la gravitation : un système supersymétrique de cordes, formulé dans un espace-temps à dix dimensions. La physique des supercordes s’applique essentiellement aux énergies à jamais inaccessibles, de l’ordre de la masse de Planck. Dans ce contexte, cette théorie est bien unique, et peut même être considérée comme finie et autocohérente. Elle semble capable de décrire les phénomènes de basse énergie que nous observons en laboratoire, mais cela reste difficile à prouver. En principe, elle prédit quelles particules doivent exister. En principe encore, le nombre de paramètres ajustables est ramené à zéro. En pratique cependant, elle n’a encore fait aucune prédiction vérifiable, et il se peut qu’elle n’en fasse pas avant des dizaines d’années. Les théoriciens des cordes se sont tournés vers une harmonie intérieure. Mais peut-on prétendre que l’élégance, l’unicité et la beauté fournissent une définition de la vérité ? Les mathématiques ont-elles supplanté et transcendé l’expérience au point que celle-ci soit devenue inutile ? Les problèmes terre à terre que je nomme la physique, mais qu’eux appellent phénoménologie, se résoudront-ils tout simplement d’eux-mêmes dans un lointain futur ? Tout effort expérimental plus poussé serait-il devenu non seulement difficile et coûteux, mais sans nécessité et hors de propos ? J’ai peut-être exagéré les arguments présentés par les théoriciens des cordes en défense de leur nouvelle version de la théologie médiévale, où les anges sont remplacés par les espaces de Calabi-Yau, mais la menace est toutefois évidente. Pour la toute première fois, il est possible d’imaginer de quelle manière notre noble quête pourrait finir, et comment la Foi pourrait une fois de plus prendre la place de la Science. Personnellement, je reste optimiste. La théorie des cordes va peut-être dominer la théorie fondamentale des cinquante prochaines années, mais seulement au sens où la théorie de Kaluza-Klein l’a fait durant les cinquante dernières. Peut-être faut-il nous tourner vers le passé, afin d’y trouver un guide pour l’avenir.
Gleick, J. (1994). Le génial professeur feynman J.-P. Mourlon & B. Pire, Trans. Paris: Éditions Odile Jacob.  
Added by: Dominique Meeùs 2010-08-14 20:52:02 Pop. 0%
      La philosophie enseignée au MIT ne fit qu’irriter davantage Feynman, qui n’y voyait qu’une industrie gérée par des logiciens incompétents. Roger Bacon lui-même, célèbre pour avoir fait entrer la science expérimentale dans la pensée philosophique, semblait avoir plus bavardé qu’expérimenté. L’idée même qu’il se faisait de l’expérience n’avait guère de rapports avec les mesures quantitatives auxquelles un étudiant du 20e siècle s’adonnait en cours de travaux pratiques : il prenait un appareil quelconque et se livrait sur lui à diverses manipulations, sans cesse répétées, en notant des chiffres.
     « Non des positions des philosophes, mais de la trame de la nature », avait déclaré Harvey(*) trois siècles plus tôt, traçant ainsi une distinction entre la science et la philosophie.
Huxley, J. (1950). La génétique soviétique et la science mondiale J. Castier, Trans. Paris: Stock.  
Added by: Dominique Meeùs 2009-08-03 13:51:51 Pop. 0%
      Il faut insister sur ce que le statut scientifique du mitchourinisme est fort différent de celui du néo-mendélisme. Celui-ci comprend un grand nombre de faits et de lois qui ont été vérifiés à mainte reprise, et de façon indépendante, par des savants du monde entier (et beaucoup d’entre eux aussi, par des amateurs et des étudiants) ; la constitution héréditaire qu’il postule — celle d’un grand nombre de gènes disposés de façon régulière à l’intérieur des chromosomes — a été établie comme objectivement vraie ; et ses principes théoriques découlent tous directement de ce fait central, d’une constitution particulaire portée par des chromosomes.
     D’autre part, beaucoup d’entre les résultats revendiqués comme faits par les mitchouriniens (savoir : l’hybridation végétative et l’hérédité des caractères acquis) ne se sont pas révélés susceptibles de vérification par les savant hors de la Russie ; et d’autres (savoir : la « dislocation » de l’hérédité par les croisements) s’interprètent également bien suivant les principes mendéliens. En outre, il est notoire que les mitchouriniens ont négligé beaucoup d’entre les précautions habituelles prises par les généticiens occidentaux pour assurer la validité de leurs expériences, et qu’ils ont, de propos délibéré, rejeté l’usage de l’analyse statistique pour contrôler la signification scientifique de leurs résultats numériques.
     […]
     Nous pourrions peut-être résumer de la façon suivante la différence entre les deux systèmes (et c’est une différence fort importante). Le mendélisme représente le développement cohérent d’un concept scientifique central, dont la formulation était nécessaire, comme étant la seule façon dont pouvaient s’expliquer certains faits observés. (Le concept était celui du facteur-unité de l’hérédité, appelé plus tard gène, et les fait étaient ceux qu’avait obtenus Mendel en croisant des variétés de pois.) Le développement a consisté, d’une part, en la généralisation de ce concept, et, d’autre part, en son perfectionnement.
     […]
     Le mitchourinisme, par contre, représente le promulgation d’une idée centrale ; et cette idée n’est pas la seule façon dont puissent s’expliquer les faits (puisque les uns s’expliqueraient également bien, ou mieux, comme étant dus à des méthodes défectueuses, et d’autres, comme dus à d’autres causes). Cette idée est dans une large mesure une idée préconçue, qui a été imposée aux faits, au lieu de naître d’eux ; quand les faits ne s’adaptent pas à l’idée, on en nie l’importance, ou même l’existence. À l’inverse du néo-mendélisme, il n’est pas quantitatif, du sorte qu’il manque de précision. Sa principale nouveauté, l’affirmation selon laquelle l’hérédité est le résultat de l’assimilation des influences extérieures, est fondée uniquement sur l’analogie, et non sur l’expérimentation ou l’observation scientifiques.
     Voilà ce que l’ai voulu dire lorsque j’ai déclaré que le mitchourinisme est une doctrine. C’est une doctrine essentiellement non scientifique ou pré-scientifique, appliquée à une branche de la recherche scientifique, et non pas en soi une branche de la science.
      Pour eux [Bateson, Punnett], comme pour moi, ou n'importe que néo-mendélien dont le nom puisse me revenir en mémoire, la formulation d’une loi est une tentative de traduire en termes généraux, et si possible, simples et, en outre quantitatifs, toutes les régularités pouvant être découvertes dans les phénomènes étudiés.
     Une fois qu’une loi est formulée, sa validité (ou non-validité) peut être mise à l’épreuve en lui opposant des phénomènes nouveaux, de façon à en perfectionner l’exactitude, ou à en dénoncer les insuffisances ou le caractère illusoire. Elle n’a rien d’éternel ni d’immuable. C’est une façon sténographique d’exprimer que, dans certaines circonstances, certains résultats ont été obtenus dans le passé, et qu’on peut s’y attendre à l’avenir. […]
     Ceci m’amène à un autre point relatif aux lois scientifiques. À mesure que se poursuivent les travaux sur un sujet, les lois qui s’y rapportent tendent à paraître de moins en moins importantes, mais se fondent dans une construction plus vaste, une large théorie, ou un grand système de phénomènes tous liés entre eux sur base de certains faits et conceptions simples et fondamentaux.
      Pour eux [Bateson, Punnett], comme pour moi, ou n'importe que néo-mendélien dont le nom puisse me revenir en mémoire, la formulation d’une loi est une tentative de traduire en termes généraux, et si possible, simples et, en outre quantitatifs, toutes les régularités pouvant être découvertes dans les phénomènes étudiés.
     Une fois qu’une loi est formulée, sa validité (ou non-validité) peut être mise à l’épreuve en lui opposant des phénomènes nouveaux, de façon à en perfectionner l’exactitude, ou à en dénoncer les insuffisances ou le caractère illusoire. Elle n’a rien d’éternel ni d’immuable. C’est une façon sténographique d’exprimer que, dans certaines circonstances, certains résultats ont été obtenus dans le passé, et qu’on peut s’y attendre à l’avenir. […]
     Ceci m’amène à un autre point relatif aux lois scientifiques. À mesure que se poursuivent les travaux sur un sujet, les lois qui s’y rapportent tendent à paraître de moins en moins importantes, mais se fondent dans une construction plus vaste, une large théorie, ou un grand système de phénomènes tous liés entre eux sur base de certains faits et conceptions simples et fondamentaux.
Jacob, M. (2001). Au cœur de la matière: La physique des particules élémentaires. Paris: Éditions Odile Jacob.  
Added by: Dominique Meeùs 2012-07-30 12:52:36 Pop. 0%
      Avancer dans ce domaine fascinant exige aujourd’hui une coopération internationale. Il est nécessaire d’utiliser des appareils construits à la limite de ce que permettent les technologies actuelles, pour prolonger encore plus loin la portée de nos sens. La construction des nouveaux grands accélérateurs exige une collaboration à l’échelle d'une région du monde. Concevoir, construire et exploiter chacun des détecteurs installés sur ces accélérateurs demande la collaboration de centaines de physiciens et bientôt de plus d’un millier. Mais que de viviers intensifs, générateurs d’innovations, d’idées nouvelles, d’estime mutuelle et d’amitié, ne trouve-t-on pas dans ces collaborations qui transcendent les frontières ? En étudiant ces particules élémentaires, on apprend aussi à mieux se connaître, à mieux se comprendre et à surmonter des barrières culturelles et politiques encore trop nombreuses entre les hommes.
     Ces collaborations franches et ouvertes, ce libre échange et cette confrontation d’idées, aucune application commercialisable ne se trouvant directement en vue, sont extrêmement propices à l’éclosion de nouvelles idées et de nouvelles techniques. C’est dans ce contexte qu’est récemment né le World Wide Web, conçu et développé pour les besoins de la physique des particules. Les premiers sites Web étaient tous des laboratoires de physique des hautes énergies.
Meulders, M. (2001). Helmholtz: Des lumières aux neurosciences. Paris: Éditions Odile Jacob.  
Last edited by: Dominique Meeùs 2013-01-13 09:03:35 Pop. 0%
      La démonstration expérimentale, par exemple, est devenue inutile. Il y a en effet une harmonie préétablie quasi leibnizienne entre la pensée et la nature, par l’identité entre l’une et l’autre, ce qui avait permis à Novalis de dire que « si la théorie devait attendre la confirmation de l’expérience, elle ne viendrait jamais à bonne fin ». La physique expérimentale ne pourrait donc jamais être qu’une juxtaposition de travaux analytiques et dispersés, sans lien possible avec l’évidente unité de la nature et l’insertion de l’homme dans l’univers. Seule compte une physique spéculative qui permette de penser et de justifier une nature préexistant à l’homme et de lui donner un sens, comme la vision dit le sens de l’œil. Pour Schelling : « Nous ne connaissons pas la Nature, mais la Nature est a priori » ; il en résulte que la science naturelle s’est muée en philosophie déductive et démonstrative.
     La Naturphilosophie se situe donc à un niveau supérieur du savoir, à un niveau d’intelligibilité différent de celui des sciences empiriques, qui sont en porte-à-faux sur un abîme insondable.
     Il n’est pas étonnant, dès lors, que le rejet de l’expérimentation en tant que démonstration s’accompagne de l’exclusion des mathématiques. Non seulement Goethe, mais même Schopenhauer pour qui « là où commence le calcul, la compréhension cesse », partagent l’avis de Schelling déniant aux mathématiques une « voix au chapitre de la physique supérieure ». Par contre, l’arithmosophie a droit de cité, car la plupart des Naturphilosophen recherchent partout les mêmes structures de nombres dans les cristaux, les constellations, la circulation du sang, les périodes de la vie humaine.
     Enfin, il faut rappeler l’importance en Naturphilosophie du concept d’organisme, que Leibniz avait développé dans sa Monadologie, en affirmant que la diversité des monades d’un animal donné n’empêche en rien l’une d’entre elles de devenir dominante et de devenir ainsi l’âme de l’animal. L’organisme est un modèle en acte de « l’identité dans la différence » ; pour Schelling, il doit y avoir un principe qui se reproduise dans chaque partie de l’ensemble comme « une unité organique des choses… c’est l’âme du monde qui est le principe unissant la nature en un vaste organisme ».
Quinn, H. (2009). What is science ? Physics Today, 8–9.  
Added by: Dominique Meeùs 2010-11-06 08:22:05 Pop. 0%
      Science requires absolute honesty about acquired data and the intellectual honesty that insists on resolving logical contradictions. Scientists must be open to new ideas and ready to modify their opinions if and when contradictory evidence emerges. The key values of honesty and openness are essential for science to progress. Scientists are human: They jump to conclusions, they make mistakes in recording or analyzing data. Sometimes a scientist fakes data and commits scientific fraud. The principle of verification by independent replication of experimental results is an important part of science, because it can unmask such errors or fraud.
Van Duppen, D., & Hoebeke, J. (2016). De supersamenwerker. Anvers: EPO.  
Added by: Dominique Meeùs 2016-12-20 21:12:52 Pop. 0%
      Al in de oudheid deden mensen wetenschappelijk onderzoek. Maar pas de laatste vijfhonderd jaar is de wetenschappelijke revolutie echt doorgebroken, ook omdat dit wetenschappelijk onderzoek werd toegepast in de productie.

Galileo Galilei veroorzaakte in de aanhef van die nieuwe tijd — op gevaar van eigen leven want de katholieke inquisitie dreigde — een omwenteling in het denken over de kosmos en de aarde. Dat de aarde om de zon draait, het heliocentrisme, verving het oude beeld van de zon die om de aarde draait. Copernicus had die stelling al eerder geopperd, maar Galilei plaatste ze op de wetenschappelijke agenda. Hij was samen met Bacon ook de vader van het fysisch experimenteren. De fysieke praktijk was voor hen de toetssteen voor de theorie.

Het werk van Charles Darwin veroorzaakte een vergelijkbare omwenteling in de wetenschap over het organische leven op aarde. Darwin hanteerde dezelfde wetenschappelijke methode: eerst observatie, vervolgens het formuleren van een hypothese, met testbare voorspellingen en ten slotte experimentele verificatie. Van de praktijk naar de theorie en dan terug naar de praktijk, die methode zat ingebakken in zijn manier van werken. Dat verklaart het grote succes van zijn werk. Na zijn reis met de Beagle zei hij: ‘Wat ik ontdekt heb, is het plezier van observeren en logisch nadenken.’

Weinberg, S. (1993). Dreams of a final theory: Search for the ultimate laws of nature. Londres: Hutchinson Radius.  
Last edited by: Dominique Meeùs 2011-05-03 08:46:32 Pop. 0%
      […] a half-serious maxim attributed to Eddington : « One should never believe any experiment until it has been confirmed by theory. »
     […] I have been emphasizing the importance of theory here because I want to counteract a widespread point of view that seems to me overly empiricist. […] It appears that anything you say about the way that theory and experiment may interact is likely to be correct, and anything you say about the way that theory and experiment must interact is likely to be wrong.
      Positivism did harm in other ways that are less well known. There is a famous experiment performed in 1897 by J. J. Thomson, which is generally regarded as the discovery of the electron. […] It turned out that the amount of bending of these rays was consistent with the hypothesis that they are made up of particles that carry a definite quantity of electric charge and a definite quantity of mass. […] For this, Thomson regarded himself, and has become universally regarded by historians, as the discoverer of a new form of matter, a particle […] : the electron.
     Yet the same experiment was done in Berlin at just about the same time by Walter Kaufmann. The main difference between Kaufmann’s experiment and Thomson’s was that Kaufmann’s was better. […] Thomson was working in an English tradition going back to Newton, Dalton, and Prout — a tradition of speculation about atoms and their constituents. But Kaufmann was a positivist ; he did not believe that it was the business of physicists to speculate about things that they could not observe. So Kaufmann did not report that he had discovered a new kind of particle, but only that whatever it is that is flowing in a cathode ray, it carries a certain ratio of electric charge to mass.
     The moral of this story is not merely that positivism was bad for Kaufmann’s career. Thomson, guided by his belief that he had discovered a fundamental particle, went on and did other experiments to explore its properties. He found evidence of particles with the same ratio of mass to charge emitted in radioactivity and from heated metals, and he carried out an early measurement of the electric charge of the electron. This measurement, together with his earlier measurement of the ratio of charge to mass, provided a value for the mass of the electron. It is the sum of all these experiments that really validates Thomson’s claim to be the discoverer of the electron, but he would probably never have done them if he had not been willing to take seriously the idea of a particle that at that time could not be directly observed.
      I have emphasized the theoretical side of this story [general relativity] as a counterweight to a naive overemphasis on experiment. Scientists ans historians of science have long ago given up the old view of Francis Bacon, that scientific hypotheses should be developed by patient and unprejudiced observation of nature.
wikindx 6.2.0 ©2003-2020 | Total resources: 1310 | Username: -- | Bibliography: WIKINDX Master Bibliography | Style: American Psychological Association (APA) | Database queries: 34 | DB execution: 0.01118 secs | Script execution: 0.03159 secs