dimanche 24 janvier 2016

Chapitre 1. La mécanique quantique : 1. Naissance de la mécanique quantique


Il ne s’agit pas simplement d’accumuler des connaissances relativement aux découvertes faites par la science, mais de comprendre aussi comment elles ont pu avoir lieu. Quelles expériences, quels problèmes, quels échecs, quelles exigences théoriques ont pu amener telle découverte et telle théorie.
De comprendre aussi les difficultés rencontrées par les théories élaborées, les problèmes qu’elles n’ont pas encore résolus, les contraintes auxquelles la réalité les soumet.
Il s’agit de comprendre la physique à partir de son histoire.



a. Le corps noir (Planck)

Tout commence avec le problème du spectre de rayonnement du corps noir.

Un corps noir est un corps idéal qui absorbe la totalité du rayonnement. Il ne réfléchit pas les rayons incidents, il ne les diffuse pas non plus. En revanche, il restitue sous forme de rayonnement électromagnétique (lumière) toute l’énergie qu’il reçoit (faute de quoi il s’échaufferait infiniment). A l’équilibre thermique, il émet autant d’énergie qu’il en reçoit.
Ce rayonnement a un spectre et il est le même quelle que soit la matière qui constitue le corps noir. A une même température, un morceau de bois ou une pièce métallique ont exactement la même couleur. C’est pourquoi l’étude du spectre du corps noir (d’une étoile par exemple) renseigne précisément sur sa température. La lumière émise par le soleil (qui est un corps noir) est bleue (il nous paraît jaune à cause de la diffusion dans l’atmosphère). Sa température est donc de l'ordre de 6000 kelvin (5778 kelvin).

La loi de Raleigh-Jeans, fonctionnant sur un modèle du corps noir assimilé à un gaz prédit parfaitement la température pour des grandes longueurs d’onde (donc les basses fréquences, donc les faibles niveaux d’énergie), mais elle prédit pour les courtes longueurs d’onde (donc les hautes fréquences, les hauts niveaux d’énergie) ce qu’on a nommé « la catastrophe ultraviolette »,  un système doté d’un niveau d’énergie infini, c’est-à-dire une explosion. Ce que contredit (heureusement) l’expérience.

C’est Planck qui résout mathématiquement le problème en faisant intervenir une constante : h (la constante de Planck : 6,625.10-34 joule.seconde). (Remarque : ce nombre correspond à la quantité d’énergie qu’il faut fournir à un atome d’hydrogène pour lui arracher son électron).

En effet, Jeans a tort de considérer le corps noir comme un gaz.. Dans un volume de gaz toutes particules finissent par avoir la même énergie (entropie d’un système fermé : 2ème loi de la thermodynamique). Autrement dit, les particules lourdes sont ralenties par les collisions et les particules légères accélérées. Ce qui permet une équipartition de l’énergie dans le système.
Or, un corps noir n’est pas un gaz. Dans le volume de gaz considéré, les particules étaient en nombre fini. Dans un corps noir le nombre de modes est infini. Qu’est-ce qu’un mode ? Le dispositif expérimental du corps noir est un four. Il est parfaitement isolé de l’extérieur et sa paroi interne, granuleuse, est noire. Un trou est percé en un endroit par lequel entre le rayonnement. Les rayons (particules) rebondissent sur les parois en perdant de l’énergie à chaque rebond (donc en échauffant la paroi qui absorbe cette énergie perdue).





Il faut concevoir que la paroi de ce four est composée d‘oscillateurs harmoniques (ce que, quand on aura accepté l’hypothèse des atomes, encore peu admise en 1900, on appellera des  atomes) qui, en vibrant, émettent un rayonnement à une certaine longueur d’onde (mode).
Le nombre des longueurs d’onde possibles (des modes) est infini, ce qui rend impossible l’idée d’une équipartition de l’énergie (diluée à l’infini elle serait nulle !). Il faut donc introduire quelque chose qui rompe cette continuité de l’infini : une constante, h. De la sorte, les échanges d’énergie (entre l’oscillateur et le rayonnement) sont des multiples de h, donc des valeurs discrètes, non continues. En un mot, l’énergie s’échange (entre matière : l’oscillateur et lumière : le rayonnement) par quanta, par paquets et non de façon continue.
Ces quanta sont fonction de la fréquence v : h.v.
Soit une basse fréquence (grande longueur d’onde, fréquence basse, vers le rouge par exemple). La valeur du quantum  h.v  est petite. Le rayonnement est facile à émettre, pour un oscillateur. Soit une moyenne fréquence (les autres couleurs dans le visible), la valeur du quantum à émettre augmente et devient moins probable. Soit enfin une haute fréquence ultraviolet et au-delà , la valeur du quantum devient si grande qu’il s’en émet de moins en moins, jusqu’à plus du tout. L’oscillateur ne dispose pas d’assez d’énergie pour émettre de tels quanta. Ainsi : pas de catastrophe ultraviolette !
 
Planck (en 1900), qui ne croit pas encore à l’atome (à la discontinuité dans la matière) vient d’introduire une discontinuité dans les échanges entre lumière et matière (le quantum d’énergie) qui va donner naissance à une nouvelle physique : la mécanique quantique. Ce qui n’est pour lui qu’un artifice mathématique pour éviter la catastrophe ultraviolette, sans réalité physique correspondante va, avec Einstein, devenir le principe d’une révolution dans la physique.

b. L’effet photoélectrique (Einstein)

On remarque que de la lumière projetée sur une plaque métallique lui arrache des électrons. Ce qui est incompatible avec une conception purement ondulatoire de la lumière. On remarque en outre que l’intensité lumineuse n’est pour rien dans ce phénomène (elle ne concerne que le nombre de photons émis, pas l’énergie qu’ils portent). En revanche, la longueur d’onde (donc la fréquence) joue un rôle important. Les basses fréquences sont sans effet, plus la fréquence augmente, plus le nombre d’électrons arrachés est important. Il faut en conclure que la lumière est faite de grains d’énergie (les photons) dont l’énergie augmente avec la fréquence (v) et que c’est donc par paquets d’énergie (quanta) que lumière et matière interagissent.
Remarque : si on augmente l’intensité, le nombre d’électrons arrachés sera plus important, il est vrai, mais l’énergie qui leur est communiquée ne sera en rien augmentée.

L’électron gagne l’énergie perdue par le photon et se trouve ainsi arraché. L’énergie d’un photon est donc liée à la constante de Planck et est fonction de la fréquence :
                            
                    E = h.v (en joules ou, plus fréquemment en électronvolts : eV).

Du coup, la lumière n’est pas simplement une onde, elle a aussi un comportement corpusculaire. Le photon représente le grain d’énergie le plus petit. La lumière est elle-même quantifiée. Non seulement l’émission de lumière est quantifiée (Planck, le corps noir) mais même une fois émise elle le demeure (le photon, grain d'énergie).

Il restera à Bohr à montrer que la quantification n’affecte pas que la lumière. Qu’elle concerne aussi les atomes.

c. Ondes et corpuscules

En physique quantique, depuis De Broglie, un objet est à la fois une onde et un corpuscule. Il serait plus exact de dire : ni une onde ni un corpuscule. Le montre l’expérience des fentes de Young.


 Les franges d’interférence

Une onde lumineuse passant par les deux fentes du dispositif se restructure au moment du passage en deux ondes qui interfèrent et produisent des franges d’interférence sur l’écran qui les reçoit.

Des corpuscules (photons, électrons, etc) passant entre les fentes (un à un) vont donner des impacts sur l’écran de réception mais tels que, au bout d’un certain temps (ci-dessous, de b) à e) ), on retrouve les franges qui étaient dues à l’onde.


 
Il faut admettre que chaque photon passe en même temps par les deux fentes (se comporte comme une onde) avant d’aller s’inscrire, conformément aux interférences qu’il a avec lui-même (comme onde), sur l’écran de réception.

Dans une même équation (la fonction d’onde) le formalisme mathématique de la physique quantique arrive à intégrer ces deux aspects.

Problème L’équation écrit sans doute les deux choses dans une même unité, mais on ne saurait les observer que séparément. Si on choisit de détecter une onde on détectera une onde. Un corpuscule ? On détectera un corpuscule. Les propriétés de l’objet observé dépendent de l’appareillage utilisé pour leur observation. Toute observation correspond à une réduction. On ne perçoit qu’un aspect possible du phénomène à la fois.
Il faut donc admettre qu’un électron, un photon, une particule est un corpuscule non localisé. Il se trouve en plusieurs endroits à la fois (dans une fente et dans l’autre). Son onde définit une probabilité de présence (quand il arrive sur l’écran, sa probabilité de présence en un point dépend de l’interférence : là où les deux ondes s’annulent, sa probabilité de présence est nulle, elle est au maximum lorsqu’elles sont en phase). Et quand la mesure précise intervient, on réduit l’état de la particule à un seul  de ses aspects. La mesure change le vecteur d’état de l’électron.

On pourrait voir en cela l’insuffisance des moyens de mesure, penser qu’un appareillage de meilleure qualité permettrait de lever cet obstacle. C’est croire qu’avant qu’on en détermine la position, la particule occupe une position bien précise. Or ce n’est pas le cas. Elle occupe une multitude de positions que la mesure réduit à une seule.

Ce caractère probabiliste conduira Einstein à penser que la théorie est incomplète, qu’elle n’aperçoit pas des variables locales  cachées (celles qui sont au voisinage de la particule) qui, si elles étaient révélées, permettraient de lever cette indétermination.

Remarque. Encore plus fort ! Jusque là, si on place un détecteur sur l'une des fentes, le photon choisira de passer par l'une ou par l'autre et non par les deux et l'on n'observera plus d'interférences sur l'écran récepteur. Mais qu'adviendrait-il si l'on retardait le choix, si l'on décidait d'effectuer la mesure, la détection, bien après que le photon ait passé les fentes ? C'est l'expérience proposée par Wheeler. Et bien, si l'on décide voir une onde (on intercale un écran) on voit une onde et si l'on décide de voir un corpuscule (au lieu de l'écran on place deux télescopes braqués sur les deux fentes), on voir un corpuscule. Ainsi, même après que le photon ait franchi les fentes, on peut le contraindre a avoir été une onde ou un corpuscule, à être passé par les deux fentes ou par une seule.

d. Le principe « d’incertitude » de Heisenberg

Le terme qui traduit l’allemand est indétermination plus qu’incertitude. Car il n’est pas question ici d’incertitude. Ce n’est pas qu’on ne puisse pas connaître avec précision à la fois la position (x) et l’impulsion (p) d’une particule, au sens où cette particule aurait une position (x) et une impulsion (p) précises antérieurement à toute mesure, c’est que cette position et cette impulsion sont indéterminées.
                                                           
Delta x . Delta p >= h
 
Une fois encore, c’est la mesure qui opère une réduction du paquet d’onde à une seule de ses possibilités.
L’univers microscopique, à la différence de l’univers de la physique classique (newtonienne) est indéterminé.

e. Le principe de superposition : principe fondamental de la mécanique quantique.

(Remarque : on entre ici dans la théorie alors qu’on disait, pour le moment, s’en tenir à l’histoire. C’est que la théorie résultant immédiatement de l’histoire, il n’est pas toujours possible de les dissocier.)

Dire qu’une particule est une onde, c’est simplement dire qu’elle a une propriété fondamentale de non localité. Qu’elle peut simultanément être en plusieurs endroits. En cela consiste le principe de superposition. C’est cela que décrit la fonction d’onde ou vecteur d’état.
Qu’appelle-t-on « état » ? Les électrons, par exemple, ont des propriétés communes (même masse, même charge électrique) mais ils n’ont pas nécessairement la même énergie, la même vitesse, la même position, le même spin). En un mot, ils n’ont pas le même état.
En généralisant le principe de superposition de la mécanique ondulatoire, en faisant comme si les particules étaient des ondes, on rend compte de cet état.

Dans l’expérience des fentes de Young, le seul moyen de savoir par quelle fente le photon ou l’électron passe, c’est de mettre un détecteur sur l’une des fentes. Or, on constate qu’à ce moment là, la particule passe en effet par une fente ou (et non plus et) par l’autre mais qu’elle se loge n’importe où sur l’écran (plus de franges d’interférence). Elle a perdu son caractère ondulatoire, elle est réduite à son caractère corpusculaire.
Ainsi, l’électeur indécis superpose-t-il dans son esprit les votes possibles. Mais devant l’urne qui va mesurer la « valeur » de telle ou telle candidature, l’électeur doit se décider et sa décision ne m’apprend rien sur son état antérieur à son vote, si ce n’est qu’il y avait une probabilité pour qu’il vote comme il l’a fait.
Un ambigramme, de Hofstadter (qui ne fonctionne qu’en anglais), illustre cette superposition caractéristique des objets quantiques.

 
f. L’intrication : deuxième principe fondamental de la mécanique quantique.

Deux atomes (l’un dans un état excité et l’autre non) entrent en collision. Sachant que l’énergie doit être conservée, deux choses semblent pouvoir se produire : soit ils repartent tous les deux avec leur niveau d’énergie initial non changé, soit ils échangent de l’énergie et repartent en sens inverse l’un de l’autre. Et bien, ce n’est pas « soit ». Le système peut être dans une superposition des deux états. C’est la mesure qui fera apparaître soit l’un soit l’autre.
Toutefois, les deux états du système n’en sont pas moins corrélés. Si à la mesure on trouve un des deux atomes à l’état excité, l’autre sera à l’état non excité. Lorsque deux atomes ont une fois interagi, leurs états sont intriqués. Quelle que soit la distance (même en années lumière) qui les sépare désormais, toute intervention sur l’un affecte l’autre. Quelle que soit la distance ? Cela signifie qu’il n’y a pas d’échange d’information entre les deux atomes lors de la mesure (il faudrait du temps pour que cette information s’échange puisque la vitesse de la lumière est limitée). Connaissant l’état de l’un, je connais au même instant l’état de l’autre..

g. L'article EPR (1935) (Einstein, Podolsky, Rosen) et les inégalités de Bell (1964)

g1. On l’a dit, Einstein, quelque révolutionnaire qu’il ait pu être, reste « classique » sur un point : « Dieu ne joue pas aux dés », l’indéterminisme de la mécanique quantique ne peut tenir qu’à l’incomplétude de la théorie. Il doit y avoir des variables cachées qui, si elles étaient prises en compte, lèveraient l’indétermination. Plus précisément, ce qui heurte Einsntein, c'est la non-localité que suppose, par exemple dans le cas de l'intrication,  la théorie quantique "orthodoxe" (école de Copenhague, Bohr). Deux particules intriquées sont dans un seul et même état et non dans deux états individuels, de sorte qu'une mesure effectuée sur la première affecte instantanément la seconde.

D’où l’article écrit en commun par Einstein avec deux autres physiciens.
Soit une source S émettant simultanément 2 photons au centre d’un laboratoire de volume arbitraire (très petit à quasi infini). Des détecteurs placés dans des positions symétriques par rapport à la source reçoivent en même temps l’impact d’un photon. Les deux photons sont dans la même direction mais de sens opposé  (il n’y a pas de superposition d’un ensemble de directions possibles). Il a donc fallu qu’ils échangent de l’information au départ (puisqu’elle n’a pas le temps de se propager d’un photon à l’autre une fois qu’ils sont partis). Mais comme cet échange échappe à l’observateur (variable cachée) on parle d’indétermination. Les deux photons émis par le même atome sont corrélés.
Si on dispose de deux cartes (pique et cœur) et qu’on en remette une à un premier acteur, l’autre au second, la probabilité pour que le premier aie pique est de ½. Mais dès qu’il aura pris connaissance de sa carte, il saura, sans qu’on ait à la découvrir que le second aura cœur. Et ce n’est pas parce que le premier a pris connaissance de sa carte que celle de l’autre est un cœur. Sans provoquer la moindre perturbation, la mesure (la découverte de la 2ème carte) ne laisse place à aucune indétermination. La variable cachée qui introduit ici une probabilité ½ c’est simplement le battage des cartes qui précède l’attribution de celles-ci à chacun des acteurs. Un observateur affûté pourrait lever cet indéterminisme en suivant attentivement ce battage et la distribution. Mieux : la connaissance de la deuxième carte est effective sans qu'aucune mesure ait été pratiquée sur elle. Rien ne l'a contraint à être un coeur. Il faut donc bien qu'elle l'ait toujours été (indépendamment de toute intervention d'un appareil de mesure). Elle est réellement un coeur.
Précisons encore ce qu'on entend exactement par local et non-local. Le cône de lumière, schématise ce que Einstein entend par localité. Deux événements proches dans le temps  ne peuvent agir l’un sur l’autre si l’espace qui les sépare est tel que la lumière n’a pas le temps d’aller de l’un à l’autre pendant cet intervalle de temps.Ainsi, si l'état de la seconde particule subit l'influence de la mesure portant sur la première de façon instantanée, c'est ou bien qu'elles étaient pragrammées toutes les deux dès l'origine pour répondre comme elles font, ou bien une violation de la non-localité inadmissible en relativité.

La réponse de la mécanique quantique à cette objection :  les deux photons intriqués n’ont pas chacun un état. Ils n’ont pas de réalité individuelle. Il y a un état des photons intriqués qui est tel que lors de la mesure appliquée au premier, celui-ci est réduit à un état et l’autre à l’état opposé. Dans l’univers microscopique, le premier acteur emporte une superposition pique-cœur et, au moment où il prend connaissance de sa carte, celle-ci se réduit à être un pique (ou un cœur) de sorte que l’autre est réduite à être un cœur (ou un pique). C’est l’image qui nous a trompés, parce qu’elle est empruntée à l’état macroscopique où la superposition de deux cartes n’existe pas. Où un chat (le fameux chat de Schrödinger) ne peut être à fois mort et vivant. Mais dans l’état microscopique, justement, ce qui vaut pour le macroscopique (le déterminisme) ne fonctionne plus. Une particule peut être et ne pas être, être ici et là, etc.

g2. Bell, en 1964, introduit ces paramètres supplémentaires (variables cachées) et imagine le moyen de prouver leur existence. La chose étant complexe, on se bornera à en décrire l’intention. Au moyen d’une série d’équations, Bell définit une inégalité qu’une théorie à variable cachée locale doit toujours satisfaire. Toutes les théories locales doivent respecter une certaine inégalité (toujours mise en évidence au niveau macroscopique) garantissant un rapport causal déterministe entre les événements.

La réponse de l’expérience : en microphysique, ces inégalités sont toujours violées. Autrement dit : ou bien il a des variables cachées et la théorie est non-locale (de Broglie, Bohm) ou la théorie est locale et il ne peut y avoir de variables cachées.

g3. Il faudra attendre 1982 et l’expérience d’Alain Aspect pour montrer qu’il n’y a pas à supposer de variables cachées. Les deux photons émis simultanément ne sont pas des entités distinctes, ils forment un système dont les propriétés ne sont pas localisées dans l’un ou l’autre photon. Autrement dit alors que pour deux particules indépendantes, l’état du système qu’elles forment peut s’écrire : Etat (1+2) = Etat (1) + Etat (2), lorsque les particules sont intriquées, une telle décomposition n’est pas possible. Le système intriqué est E(1).E(2).

1) D’abord on fait en sorte de faire émettre deux photons par un même atome et on les fait aller dans deux directions opposés sur des détecteurs situés chacun à 6,3 m de la source. 5 ns (nanosecondes) séparent l’émission de chaque photon. On constate que c’est le temps qui sépare la détection des deux photons. Supposons que le détecteur qui capte le premier photon envoie instantanément un signal en direction du deuxième détecteur situé à 12,6 m de lui. Le signal met 42 ns pour parvenir au second détecteur : bien trop tard pour informer la particule de l’état quelle « doit » présenter. Ainsi, l’intrication n’est pas liée à la communication de l’information d’une particule à une autre. Première chose. Il y a un seul et même état pour les deux particules. Quand la réduction  du fait de la mesure a lieu pour l’une il a donc instantanément lieu pour l’autre.

Mais (variable cachée) peut-être ont-il échangé au départ cette information ?

2) Il ne s’agissait plus que de montrer expérimentalement la violation des inégalités de Bell. Ce que fit, de 1980 à 1982, Alain Aspect.

Remarque. C’est ce qui est à la base de la cryptographie quantique. Un message crypté par les méthodes classiques peut être décrypté si on parvient à retrouver le code. Et les correspondants ne seront même pas au courant du fait qu’ils sont devenus transparents. Le cryptage quantique 1) est tel qu’il est infiniment plus complexe à décoder mais surtout 2) que les communicants sont immédiatement informés de ce qu’ils sont espionnés ! En effet, la détection par l’espion est une mesure qui opère donc une réduction. Celle-ci est immédiatement observée par le récepteur du message.

h. Bilan provisoire.

La mécanique quantique est irréductible à la physique classique. Le monde quantique a des propriétés fondamentalement différentes de celles du monde à notre échelle.

C’est d’abord un univers probabiliste où règne l’indétermination. On ne peut rien dire de précis sur l’état d’une particule avant d’avoir effectué une mesure qui modifie cet état, le réduisant à l’une seulement de ses possibilités.

C’est qu’y domine la superposition des états. Une particule occupe une multitude de positions, est dotée d’une multitude de quantités de mouvement, de spins différents. Mieux, elle est à la fois une onde et une particule ou plutôt (puisque superposition) ni l’une ni l’autre.

C’est un monde discontinu. Non seulement la matière est discontinue (faite d’atomes, de protons, de neutrons, de quarks, d’électrons, etc) mais l’énergie elle-même est discontinue, s’échangeant par paquets (les quanta).

C’est un monde où existe l’intrication qui fait que deux particules ayant une fois interagi, elles n’existent plus que dans un seul état de sorte que, quelle que soit la distance qui les sépare, elles restent indissolublement corrélées

On retiendra deux formules :



E = h.v  qui donne l’énergie d’un photon comme le produit de la constante de Planck ( h = 1,625.10-34 j.s) par la fréquence (v)

x . p >= h qui est le principe d’indétermination (plutôt que d’incertitude) de Heisenberg et qui pose que l’incertitude sur la position d’une particule (Dx) augmente avec la précision sur la quantité de mouvement ou impulsion (p) ou inversement.

On retiendra l’existence de cette constante fondamentale qu’est la constante de Planck (h) qui régit tout cet univers et dont le rôle en cosmologie (voir plus loin) est aussi fondamental.



Aucun commentaire:

Enregistrer un commentaire