Heisenberg [03] Crise du « déterminisme universel » classique. La physique de l’atome s’appuie sur un déterminisme statistique. Nouveaux visages des concepts de cause et de loi.

Publié le par M

Heisenberg [03] Crise du « déterminisme universel » classique. La physique de l’atome s’appuie sur un déterminisme statistique. Nouveaux visages des concepts de cause et de loi.

Bref historique de la notion de cause.

 Mod--les-atome-Blog.jpg





















« Parmi les résultats généraux les plus intéressants de la physique atomique moderne, nommons les transformations produites. Grâce à son influence, dans le concept de loi naturelle.

 

Au cours des dernières années on a souvent dit que la science atomique moderne abolissait le principe de causalité ou, du moins, lui enlevait une partie de sa vigueur, si bien que l’on ne pouvait plus parler d’une détermination proprement dite des processus selon les lois naturelles. Parfois on entend simplement dire que le principe de causalité ne s’accorde pas avec la science moderne de l’atome. Des formules de ce genre restent obscures tant que les concepts de cause ou de loi ne sont pas suffisamment élucidés.

 

[…] Historiquement parlant, l’application du concept de causalité à la règle de cause à effet est relativement récente. Dans les philosophies anciennes, le terme « causa » avait une signification bien plus générale qu’il ne l’a aujourd’hui. Se référant à Aristote, la Scolastique par exemple parlait de quatre formes de « cause ». On y trouve la causa formalis [1] , qu’aujourd’hui on appellerait la structure ou le contenu conceptuel d’une chose ; la causa materialis[2], c’est-à-dire la matière dont est faite une chose ; la causa finalis[3], qui est le but d’une chose et, enfin, la causa efficiens[4]. Seule la causa efficiens correspond à peu près à ce que nous désignons aujourd’hui par le terme de cause.

 

La transformation du concept de causa dans le concept actuel de cause s’est produite au cours des siècles, en liaison interne avec la transformation de la réalité entière, telle que les hommes la conçoivent, et avec la naissance des sciences de la nature au début de l’ère moderne. […] Kant qui, sur beaucoup de points, tire les conséquences du développement des sciences de la nature depuis Newton, emploie déjà le terme de causalité dans l’acception habituelle au 19ème siècle : « Lorsque nous apprenons qu’une chose arrive, nous présupposons toujours qu’une chose a précédé dont la première découle selon une règle. » C’est ainsi que la formule de la causalité fut limitée et s’identifia finalement au fait de s’attendre qu’un événement de la nature soit rigoureusement déterminé et que, par conséquent, la connaissance exacte de la nature ou de l’une de ses parties suffise, du moins en principe, à prévoir l’avenir. La physique de Newton était ainsi conçue qu’on pouvait calculer à l’avance, à partir de l’état d’un système, à un moment déterminé, le mouvement futur du système.[5] […]Si l’on veut prendre le terme de causalité au sens restreint, on parle aussi de « déterminisme » et on entend par là qu’il y a des lois naturelles fixes qui déterminent rigoureusement l’état futur d’un système d’après l’état actuel.

 

 

 

[Les lois statistiques]

 

Dès ses débuts, la science atomique a développé des notions qui, à vrai dire, ne s’accordent pas bien avec cette image. Non pas que ces notions contredisent ses principes ; mais la façon de penser propre à la science atomique devait, dès l’abord, se distinguer de celle du déterminisme. L’atomisme antique de Démocrite et de Leucippe admettait déjà que les processus à grande échelle résultent de multiples processus irréguliers à l’échelle corpusculaire. […] Nous nous servons toujours de concepts qui ont trait au comportement des phénomènes à grande échelle sans nous intéresser aux processus isolés à l’échelle corpusculaire.

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

[…] Des lois statistiques peuvent, il est vrai, conduire à des affirmations d’un degré de probabilité si élevé qu’il équivaut presque à une certitude. […] Il semble souvent que le con­cept de loi statistique soit rempli de contradictions. On entend dire d’une part qu’il est possible d’ima­giner que les processus naturels sont régis par des lois et d’autre part que ces processus se déroulent sans aucun ordre et que les lois statistiques ne représentent rien. Rappelons cependant que dans la vie quotidienne nous ne faisons pas un pas sans rencontrer des lois statistiques qui servent de base à nos actions pratiques. Lorsque, par exemple, un technicien construit une installation hydraulique, il compte avec une quantité moyenne de chutes de pluie, bien qu’il ne puisse pas prévoir quand il pleuvra et combien d’eau il tombera.

 

Les lois statistiques signifient d’habitude que l’on ne connaît qu’incomplètement les systèmes physiques dont il s’agit. Le jeu de dés fournit l’exemple le plus connu. Comme aucune face du dé ne se distingue de l’autre et que nous ne pouvons prévoir d’aucune manière sur quelle face il tombera, on peut supposer que, seule la sixième partie d’une très grande quantité de coups aura la chance de faire sortir la face portant cinq points.

 

Au début de l’ère moderne on a tout de suite tenté d’expliquer du point de vue qualitatif aussi bien que quantitatif le comportement de la matière par le comportement statistique de ses atomes. Robert Boyle a déjà montré qu’on pouvait comprendre les rapports entre la pression et le volume d’un gaz dès que l’on expliquait cette pression par les nombreux chocs que provoquent des atomes isolés contre la paroi d’un récipient. On a expliqué d’une manière analogue les phénomènes thermodynamiques en admettant que les atomes se meuvent avec plus de violence dans un corps chaud que dans un corps froid. On a réussi à donner à cette observation une forme quantitative et mathématique et à faire comprendre ainsi les lois de la science de la chaleur.

 

 

 

[La physique des Quanta s’appuie sur une formulation statistique du déterminisme]

 

 […] On n’abandonna pas le principe du déterminisme jusqu’à la célèbre invention de Max Planck : la théorie des quanta. […] Il avait montré qu’un atome rayonnant n’émet pas son énergie de façon continue mais discontinûment, par chocs. Cette émission d’énergie discontinue et par chocs, comme toutes les notions de la théorie des atomes, a fait supposer que l’émission de rayons est un phénomène statistique. Il a pourtant fallu vingt-cinq ans pour trouver que, en effet, la théorie des quanta contraint à donner aux lois une formule statistique et à abandonner le principe du déterminisme. Depuis les travaux d’Einstein, de Bohr et de Sommerfeld, la théorie de Planck s’est révélée la clé qui donne accès au domaine entier de la physique atomique. A l’aide du modèle de l’atome créé par Rutherford et Bohr, on a pu expliquer les processus chimiques ; depuis, la chimie, la physique et l’astrophysique se sont fondues en un tout. Cependant, en ce qui concerne la formulation mathématique des lois selon la théorie des quanta, on s’est vu forcé d’abandonner le déterminisme pur.

 

 […] Je me bornerai à indiquer certaines formules exprimant la situation singulière du physicien dans la physique atomique. En premier lieu, on peut exprimer la divergence entre la physique contemporaine et la physique d’autrefois par ce qu’on appelle la relation d’indétermination. On a établi qu’il est impossible d’indiquer simultanément, à volonté et exactement, la position et la vitesse d’une particule atomique. On peut mesurer exactement la position, mais alors l’intervention de l’instrument d’observation interdit jusqu’à un certain point de connaître la vitesse ; dans le cas contraire, la connaissance de la position devient imprécise lorsqu’on mesure la vitesse, si bien que la constante de Planck a constitué une limite inférieure d’approximation du produit de ces deux imprécisions. Cette formulation montre en tout cas la raison pour laquelle les concepts de la mécanique newtonienne ne peuvent désormais nous conduire beaucoup plus loin, car pour calculer un processus mécanique, il faudrait connaître simultanément la position et la vitesse du corpuscule à un moment déterminé et c’est précisément ce que la théorie des quanta estime impossible. […] Les lois de la théorie quantique doivent être de nature statistique. […] Cet élément statistique de la physique atomique ne joue en général aucun rôle dans les processus à grande échelle, car, dans ce domaine, la probabilité des lois statistiques est si élevée que l’on peut considérer ce processus comme pratiquement déterminé. Il est vrai qu’il existe toujours des cas où le processus à grande échelle dépend du comportement d’un seul ou de quelques rares atomes ; on ne peut alors prévoir que statistiquement ce processus. J’aimerais en donner la preuve par un exemple connu bien que très déplaisant, à savoir celui de la bombe atomique. Lorsqu’il s’agit d’une bombe ordinaire, on peut calculer d’avance la force de l’explosion à partir du poids de la matière explosive et de sa composition chimique. Pour ce qui est de la bombe atomique, nous pouvons indiquer une limite supérieure et une limite inférieure de la force de l’explosion, mais, en principe, il est impossible de calculer exactement cette force d’avance, car elle dépend du comportement d’un petit nombre d’atomes pendant le processus d’allumage. »

 
 
 

 
[Heisenberg, La nature dans la physique contemporaine, Idées, Gallimard]

 

 

 


[1] Cause formelle [ou idée : le grec <Eidon> d’où provient Idée a également le sens de Forme. On peut dire indifféremment théorie des Idées ou des Formes chez Platon. Formaliser, système formel, renvoie à cette réalité abstraite]

 

[2] Cause matérielle

 

[3] Cause finale.

 

[4] Cause efficiente

 

[5] Voir la formulation du déterminisme par Laplace.

Publié dans 14 - RAISON et le REEL

Commenter cet article