Pages

mardi 8 décembre 2015

NOTE DE LECTURE N° 11 : 25 POINTS CLÉS POUR COMPRENDRE LA PHYSIQUE QUANTIQUE, CHARLES OLIVERO, Ed. ESI

L'auteur de cet ouvrage est ingénieur et titulaire d'un doctorat de physique. Je le connais très bien et je peux témoigner de sa rigueur, de son honnêteté intellectuelle et du soin qu'il a mis à composer cet ouvrage. La tâche n'était pas aisé car la mécanique quantique est un des thèmes les plus difficiles de la physique moderne. À vrai dire, un des défis majeurs lancés aux physiciens actuels est de comprendre l'articulation entre la physique quantique, la relativité (Einstein) et les observations astronomiques qui font émerger de nouvelles théories cosmologiques (matière noire, énergie noire, etc.).
Or Charles Olivero est arrivé avec beaucoup de succès à présenter la physique quantique d'une manière agréable et accessible. L'expérience a été faite que des personnes dotées d'un faible bagage scientifique ont été passionnées par l'ouvrage.





Le livre est composé (outre une introduction, une conclusion et une bibliographie) de trois parties :

Les fondements.
Les expériences.
Les applications.

Au total, 25 petits chapitres très bien illustrés qui, chacun, se concluent par un mémento de l'essentiel de ce qu'il faut retenir.

Un dernier mot d'introduction qui sera utile au lecteur du livre : il est impossible, surtout dans les deux premières parties de "sauter" un ou plusieurs chapitres ou de les lire dans un autre ordre que celui qui est proposé. Il s'agit en fait d'un passionnant feuilleton : si on a manqué un épisode, on ne comprend pas la suite.

Les fondements

Ce que l'auteur appelle "la préhistoire de la physique quantique" est un exposé de ce que l'on connaît à la fin du XIXe siècle. Je suis heureux qu'il y soit rendu hommage au génial Newton. Sa physique reste valable à notre échelle et c'est elle qui nous permet (entre autres choses) d'envoyer des engins dans l'espace et de comprendre le mouvement des planètes. Enfin presque ! Car on observe des anomalies dans la trajectoire de Mercure qui ne seront comprises qu'à l'aide de la théorie de la relativité. À la fin du XIXe siècle, grâce en particulier aux travaux de Kelvin, Kirchhoff, et Maxwell, on a de bonnes raisons d'être satisfait car on pense, en matière de physique, avoir à peu près tout résolu. À peu près seulement car il reste quelques problèmes à résoudre dont l'un, appelé "la catastrophe ultraviolette", va être étudié par le physicien Max Planck et donnera naissance à la physique quantique.

Planck essaie de comprendre pourquoi les modèles qui décrivent la relation entre la couleur d'un corps (c'est-à-dire la longueur d'onde de la lumière qu'il émet) et sa température ne sont plus valables dans la gamme de fréquence de l'ultraviolet. La "catastrophe ultraviolette" signifie que, sur la base de ces modèles, on aurait pour les hautes températures une énorme production de radiations ultraviolettes qui rendraient impossible la vie sur Terre. Planck imagine alors que l'énergie n'est pas libérée de manière continue mais par "paquets" qu'il appelle des quanta et il découvre que l'énergie d'un quantum est proportionnelle à la longueur d'onde de la lumière qui lui est associée. Le coefficient de proportionnalité qu'il met en évidence devient une nouvelle constante universelle : la constante de Planck "h". La physique quantique est née.

C'est alors qu'Einstein, sur la base de la découverte de Planck a une idée géniale : la lumière, dont on supposait jusqu'alors qu'elle était exclusivement une onde électromagnétique est également composée de quanta d'énergie qu'il appela quanta de lumière, et que l'on appellera plus tard des photons. Il va même plus loin puisqu'il pose pour la première fois l'hypothèse que la lumière est une dualité "onde-corpuscule". Hypothèse très controversée et qui ne sera vérifiée que dans les années 1920. Notons que Einstein est surtout connu pour sa théorie de la relativité mais que ce sont ses travaux sur la lumière qui lui ont valu son prix Nobel de physique en 1921.

Les découvertes de Planck et d'Einstein ouvrent de nouvelles pistes dans un autre domaine : celui de la constitution de la matière. Le modèle atomique admis à cette époque était celui de Rutherford : un noyau autour duquel un certain nombre d'électrons sont en orbite. Or ce modèle possède une énorme faille : on démontre que si tel était le cas les électrons finiraient par s'effondrer sur le noyau, ce qui signifierait l'anéantissement de toute la matière. Et pourtant le monde existe ! En 1913 Niels Bohr propose un modèle (l'atome de Bohr) grâce auquel il montre que les électrons sont capables d'effectuer des sauts quantiques d'une orbite à l'autre en absorbant ou en émettant de la lumière. Bohr restera dans l'histoire des sciences le "pape" de la physique quantique, comme Einstein restera celui de la relativité.

La physique moderne progresse à grands pas. En 1924, Louis de Broglie soutient sa thèse de doctorat devant un jury dont certains membres admettront plus tard qu'ils n'ont pas tout compris ! La théorie de de Broglie est qu'à chaque particule de matière on peut associer une onde qu'il appelle "onde de matière", dotée d'une longueur d'onde qui satisfait à l'équation de Planck citée plus haut. C'est ainsi qu'il explique la stabilité du modèle d'atome de Bohr : les électrons ne peuvent pas se situer sur n'importe quelle orbite : seules leur sont accessibles les orbites dont le rayon est un multiple entier de la longueur d'onde qui leur est associée. De plus ces orbites sont des orbites stables : elles ne se déplacent pas dans l'espace mais vibrent comme une corde de guitare qui est fixée à ses deux extrémités (ce qui explique que l'atome ne s'effondre pas : même s'ils changent d'orbite, les électrons ne peuvent être situés en deçà d'une certaine distance du noyau). Dans les années 1927, trois physiciens (Davisson, Germer et Thomson) vérifieront expérimentalement la théorie de de Broglie.

En 1916 le modèle d'atome de Bohr a reçu quelques améliorations de la part de Sommerfeld (il est dès lors appelé "modèle de Bohr-Sommerfeld). Ces corrections nécessitent, pour caractériser la position d'un électron, trois nombres entiers (dits nombres quantiques). Le premier, n, est le numéro de la couche où il se situe. Les deux autres, k et m, sont nécessaires pour prendre en compte les deux innovations de Sommerfeld : le caractère elliptique (et non circulaire) des orbites électroniques, et leur inclinaison par rapport au noyau (Bohr pensait que les orbites étaient coplanaires). C'est alors qu'interviennent un jeune étudiant, Stoner, et le jeune physicien Pauli (il est né en 1900). Stone a montré, sans pouvoir l'expliquer, qu'un électron sur une couche n peut posséder n^2 (n au carré) états d'énergie mais que chaque couche peut posséder 2.n^2 électrons. Ce facteur 2 intrigue beaucoup Wolfgang Pauli. Pourquoi y a-t-il (au maximum) deux fois plus d'électrons sur une couche que d'états possibles d'énergie ? Sa réponse est que pour une même couche et un même état d'énergie, il existe "quelque chose" qui peut différencier deux électrons, et que ce "quelque chose" ne peut prendre que deux valeurs. Il propose donc un quatrième nombre quantique, que l'on appellera plus tard le spin (rotation en anglais) et qui (ce sera démontré un peu plus tard) ne peut prendre que 2 valeurs 1/2 et -1/2. Mais Pauli (aussi génial que curieux, ou génial parce que curieux !) se demande alors pourquoi tous les électrons n'ont pas tendance à saturer la couche la plus basse, ce qui donnerait une stabilité maximale à l'atome. Ce n'est évidemment pas le cas, sinon nous n'aurions pas une telle variété de corps dans l'Univers (puisque tous les atomes seraient identiques). Il énonce, pour expliquer cela, le principe qui porte le nom de "principe d'exclusion de Pauli" et qui stipule que deux électrons définis chacun par les quatre mêmes nombres quantiques ne peuvent pas occuper le même état d'énergie dans un atome. Ils sont contraints de se répartir harmonieusement entre les différentes couches.

À ce stade les choses sont devenues très compliquées. Il est quasiment impossible d'imaginer, avec les sensations (les sens) qui sont les nôtres, à notre échelle, ce qui se passe réellement dans la matière et comment "fonctionne" la physique quantique. On a amorcé, depuis le début de XXe siècle un tournant épistémologique. Avant ce tournant un "honnête homme", comme on disait jadis, pouvait à peu près comprendre en utilisant uniquement son bon sens, les découvertes majeures : la physique de Newton, la thermodynamique, les découvertes astronomiques, etc. Désormais, la physique (disons plutôt ses mécanismes et principes) devient abstraite et sa compréhension réservée à des spécialistes de haut niveau. Elle l'est encore aujourd'hui, d'où l'intérêt pédagogique majeur du livre de Charles Olivero. Mais dans les années 1920-1930 il reste encore beaucoup à faire pour mettre de l'ordre dans le foisonnement de théories qui ont surgi à une vitesse surprenante sous l'impulsion de Planck, Bohr, Einstein, etc. C'est la tâche à laquelle s'attelle un jeune physicien de 24 ans : Werner Heisenberg.

Le premier apport d'Heinsenberg, qui restera controversé, est de mettre en forme un formalisme dit "formalisme matriciel" qui lui permet d'établir des relations mathématiques entre les caractéristiques observables des électrons. Mais sa théorie est strictement corpusculaire, ce qui ne plaît pas à tout le monde, bien que son travail soit salué comme une avancée notable. Une remarque que lui a faite Einstein le taraude : est-ce que c'est la mesure qui permet de construire la théorie ou est-ce que c'est la théorie qui impose le type de mesure que l'on peut faire ? Il en arrive à la conclusion que c'est le deuxième terme de l'alternative qui est le bon et formule le fameux "principe d'incertitude d'Heisenberg" qui lui vaudra le prix Nobel de physique en 1932. Ce principe revient à dire que pour une particule de masse donnée le produit de l'incertitude sur la mesure de la vitesse et de l'incertitude sur la position est constant. En d'autres termes, si on connaît avec une grande précision la vitesse d'un électron, on ne peut connaître qu'avec une faible précision sa position (et vice-versa). À la limite, si on connaissait avec une précision absolue la vitesse (incertitude nulle), l'incertitude sur la position serait infinie, ce qui signifierait que l'électron peut être n'importe où dans l'Univers. En physique quantique la notion de trajectoire, familière à Newton, n'existe plus ! Un point très important doit être souligné : quand Heisenberg parle d'incertitude il ne s'agit pas de l'incertitude de l'appareil de mesure (comme l'incertitude d'un thermomètre qui donnerait la température à un dixième de degré près). Il s'agit d'une incertitude qui découle directement de la théorie. Même si l'on disposait d'appareils de mesure dotés d'une précision parfaite le principe d'Heisenberg resterait valable.

Erwin Schrödinger, physicien et philosophe autrichien, débute ses travaux de physique théorique assez tardivement. Il est très intéressé par la théorie de de Broglie postulant qu'une onde de matière est associée à chaque particule matérielle, mais il conçoit que ces ondes resteront une hypothèse tant qu'on n’aura pas trouvé une équation pour les décrire. Il s'attelle avec succès à cette tâche et élabore ce qu'on appellera plus tard "l'équation de Schrödinger", qu'il validera en l'appliquant à l'atome d'hydrogène et dont les solutions sont des nombres complexes appelés "fonctions d'onde". Mais que représente cette onde ? De quelle manière est-elle associée à une particule ? Très sceptique sur les théories corpusculaires, il imagine qu'un électron est en fait un "paquet" d'ondes, c'est-à-dire un ensemble d'ondes oscillant avec des fréquences différentes. La composition de ces différentes fréquences fait que l'onde résultante (la "somme" du paquet) présente des minima et des maxima. Lorsque le maximum est "pointu" (en forme de pic) il correspond à une particule très bien localisée mais composée d'un grand nombre de fréquences. Or, puisque de Broglie a établi une corrélation entre longueur d'onde et vitesse on en déduit qu'il existe une forte incertitude sur la vitesse de la particule. À l'inverse si le maximum a plutôt la forme d'un large plateau, la position de la particule est définie avec une forte incertitude mais sa vitesse est beaucoup plus précisément connue (puisqu’un "plateau" est composé d'un nombre restreint d'ondes différentes). Schrödinger confirme ainsi, indirectement, le principe d'incertitude d'Heisenberg. À ce stade la "compétition" est encore ouverte entre les tenants des ondes et ceux des particules. C'est le physicien et mathématicien britannique Paul Dirac qui réussira la prouesse, en 1928, d'effectuer la très difficile synthèse entre ces deux positions. Il recevra le prix Nobel de physique en 1933, conjointement avec Schrödinger.

C'est alors qu'intervient la grande révolution de Max Born (ne pas confondre Bohr et Born !). C'est une révolution physico-mathématique, puisque pour la première fois la théorie des probabilités est utilisée en physique quantique, mais c'est aussi une révolution philosophique car elle porte un rude coup au déterminisme scientifique.

Born est passionné par le formalisme de Schrödinger mais réfute son hypothèse totalement non corpusculaire. Dirac n'a pas encore publié ses travaux qui fournissent une solution mathématique "onde-corpuscule" et Born étudie expérimentalement et mathématiquement les trajectoires que prennent des électrons quand ils percutent des atomes. Il s'aperçoit expérimentalement que la direction de l'électron, après la collision, semble aléatoire. Mathématiquement il démontre que, appliquée à cette collision, l'équation de Schrödinger fournit une réponse qui ressemble fort à une loi de probabilité. Ce n'en est pas vraiment une (Charles Olivero explique clairement pourquoi) mais on peut considérer que la théorie ne fournit pas la direction de "sortie" de l'électron mais la probabilité que l'électron "sorte" dans telle ou telle direction. Il n'y a aucun moyen de savoir la direction que prendra l'électron. Le hasard et le calcul des probabilités viennent de faire leur entrée dans la physique quantique. Beaucoup de physiciens, dont Einstein, n'admettent pas cette hypothèse. On connaît la célèbre formule d'Einstein : "Dieu ne joue pas aux dés". Mais Born sera récompensé par un prix Nobel en 1954.
La théorie de Born ouvre également des perspectives philosophiques nouvelles. Jusqu'alors la physique, donc la transformation de la nature, était considérée comme déterministe, ce qui signifie que, une fois connues toutes les conditions initiales, le comportement de la matière est totalement prévisible et calculable si on connaît les lois adéquates. Par contre, dans la théorie de Born le rôle joué par le hasard limite cette prédictibilité.

À ce stade des développements théoriques se pose alors la question de savoir ce que signifie une mesure quantique et comment l'interpréter. La question ne se pose pas en mécanique classique : si on mesure une durée on utilise un chronomètre et on obtient… une durée. La seule incertitude de la mesure est liée à la précision du chronomètre.
En mécanique quantique, comme l'a montré le formalisme de Heisenberg, Schrödinger et Dirac, le résultat d'une mesure est une probabilité. Et le point le plus fondamental est que le caractère aléatoire du résultat ne résulte ni de notre ignorance, ni de la qualité des appareils utilisés : l'incertitude est intrinsèque et inévitable.
Pourquoi ?
La mécanique quantique ne répond pas clairement à cette question. Par contre le formalisme mathématique qui la sous-tend donne des possibilités d'explications. Des possibilités seulement, car depuis le début du règne de la mathématisation de la physique (disons depuis Newton "en gros") est apparu un phénomène relativement nouveau : les modèles mathématiques peuvent décrire la matière, et plus généralement l'Univers, de manière différente suivant la manière dont on considère les états initiaux, les constantes, etc. Ces modèles sont parfaitement rigoureux et exacts d'un point de vue mathématique, mais la réalité qu'ils décrivent ne peut être validée que par l'expérience, ce qui n'est pas toujours possible (surtout quand il s'agit de modèles cosmologiques). Sur la base de ce formalisme, Bohr (encore lui !) et ses collègues rassemblés dans ce qu'on a appelé "l'école de Copenhague" soutiennent l'idée suivante : supposons que l'on étudie une des caractéristiques d'une particule, disons un électron. Avant de procéder à une mesure, l'électron est dans un état qui est la superposition de tous les états possibles (du point de vue de la caractéristique étudiée), c'est-à-dire dans une combinaison de tous les états qui sont caractérisés par une "fonction d'onde" solution de l'équation de Schrödinger. Le formalisme mathématique attribue à chacun de ces états possibles une probabilité. Mesurer, en physique quantique, c'est détecter l'état possible qui a la plus forte probabilité. Cette opération de mesure, qui permet de passer d'une multitude d'états à un seul état est appelée "réduction du paquet d'ondes", ou "réduction du vecteur d'état". D'une manière plus technique, on peut dire que la "fonction d'onde" solution de l'équation de Schrödinger a été perturbée. Mais il y a plus ! Puisque la fonction d'onde est continue et fonction du temps on pourrait s'attendre à ce qu'une deuxième mesure faite ultérieurement donne un autre résultat. Or, ce n'est pas le cas : une fois une mesure effectuée toutes les autres mesures faites ultérieurement donneront le même résultat. Bohr ira même jusqu'à dire que, en dehors d'une mesure, une particule n'a pas de réalité.

La théorie de Bohr et de ses amis de l'école de Copenhague, dite "théorie orthodoxe" reste aujourd'hui celle qui obtient le plus large consensus dans le monde des physiciens. Pourtant il a fallu que Bohr introduise un postulat (non justifié, comme tous les postulats) dit de "l'effondrement de la fonction d'onde" pour justifier comment on peut passer du "multiple" de la fonction d'onde à la "singularité" du résultat expérimental. Mais la théorie orthodoxe est fructueuse : elle est compatible avec le principe d'incertitude d'Heisenberg, les aspects corpusculaires et ondulatoires sont corrélés, etc.

Pourtant Einstein résiste ! Il n'adhérera jamais à tous les aspects de la théorie orthodoxe. En 1935, aidé par deux collaborateurs Podolsky et Rosen, il lance un dernier défi à Bohr, que l'histoire des sciences retiendra sous le nom de "paradoxe EPR" (initiales des trois physiciens qui l'ont formulé). En fait il s'agit de ce que l'on appelle une "expérience de pensée", c'est-à-dire une expérience qui n'est pas effectivement réalisée mais dont on imagine toutes les conditions de réalisation, en se posant la question de ce qu'il adviendrait de telle ou telle théorie dans ce contexte. EPR imaginent qu'une source émette deux particules identiques A et B de manière telle qu'à chaque instant leurs directions soient opposées et leurs vitesses égales. Les particules s'éloignent et, à un moment donné, on mesure la vitesse de A. On connaît donc la vitesse de B, qui est égale à celle de A, sans faire aucune mesure. De même, si on mesure la position de A, on connaît celle de B sans effectuer de mesure puisque les directions sont opposées et les vitesses égales.
En quoi ceci pose-t-il un problème, voire un paradoxe ?
Le problème est que, en mécanique quantique, lorsqu'un système est constitué par deux particules l'équation de Schrödinger fournit l'état global du système et non pas de l'une ou l'autre des deux particules. On dit que les deux particules sont intriquées. Or, dans l'expérience d'EPR il y a un élément dont l'état est connu sans mesure comme s'il n'y avait pas intrication. Il existe donc ce que Einstein et ses deux collègues appellent un "élément de réalité" qui n'est pas décrit par la physique quantique. Bohr a senti "le vent du boulet" et répond très vite pour ne pas laisser se développer une querelle scientifique. Mais ses arguments ne sont pas très convaincants puisqu'en fait il utilise les fondements de la théorie orthodoxe… pour démontrer la validité de la théorie orthodoxe. Il faudra attendre 1964 pour que le physicien irlandais John Bell montre (à son corps défendant car il soutenait Einstein) qu'il ne s'agit pas d'un paradoxe et que c'est Bohr qui avait raison.
Une remarque personnelle : le grand public a ses "chouchous". Tout le monde connaît Einstein mais le nom de Bohr est quasiment ignoré hors du monde des physiciens. Pourtant ces deux hommes ont été l'un comme l'autre des génies. Leurs apports à la physique, donc à la compréhension de l'Univers sont considérables. Les applications qui en découlent sont innombrables. Mais Einstein a frappé l'imagination du public en raison de la vulgarisation par les médias des conséquences surprenantes de la relativité (accélération du temps et raccourcissement des distances). Fermons la parenthèse.

Les expériences

Paul Dirac, dont nous avons vu plus haut le rôle essentiel qu'il a joué dans l'histoire de la mécanique quantique va ouvrir la porte au concept d'antimatière en découvrant expérimentalement l'existence d'électrons chargés positivement, que l'on appellera "positons". Il est également le premier à faire un lien entre la théorie de la relativité et la physique quantique et posera les bases de l'électrodynamique quantique. C'est le physicien Richard Feynman qui généralisera les travaux de Dirac. Son apport fondamental sera de montrer l'interaction entre photons et électrons (ou positons). Ce résultat sera plus tard généralisé aux autres formes d'interaction mais on n'a toujours pas trouvé le "graviton" particule qui devrait théoriquement intervenir lorsque le champ considéré est le champ gravitationnel.

Nous avons déjà évoqué les ""expériences de pensée" qui ne sont pas des expériences réellement effectuées mais imaginées. En physique quantique, la plus célèbre est celle du chat de Schrödinger. Erwin Schrödinger a imaginé une expérience de pensée dans laquelle un chat est enfermé dans une boîte avec un dispositif qui tue l'animal dès qu'il détecte la désintégration d'un atome d'un corps radioactif ; par exemple : un détecteur de radioactivité relié à un interrupteur provoquant la chute d'un marteau cassant une fiole d'un gaz mortel. Si les probabilités indiquent qu'une désintégration a une chance sur deux d'avoir eu lieu au bout d'une heure, le "bon sens" laisse penser qu'au bout d'une minute le chat sera soit mort, soit vivant. Par contre la mécanique quantique indique que, tant que l'observation n'est pas faite, l'atome est simultanément dans deux états (intact/désintégré). Or le mécanisme imaginé par Schrödinger lie l'état du chat (mort ou vivant) à l'état des particules radioactives, de sorte que le chat serait simultanément dans deux états (l'état mort et l'état vivant), jusqu'à ce que l'ouverture de la boîte (l'observation) déclenche le choix entre les deux états. Cette expérience de pensée a donné lieu à d'innombrables discussions. D'autres variantes de l'expérience ont été imaginées, en particulier avec un être humain (le suicide quantique !). On lira aussi avec intérêt la description que donne Charles Olivero de l'expérience de Wigner dans son chapitre "Expériences de pensée". Dans les années 1970 la théorie dite de la décohérence donnera des éléments de réponse en postulant que, en raison de l'environnement, l'état de superposition est annihilé bien avant l'observation.

L'expérience des fentes de Young a été réalisée, en optique classique, en 1801. À cette époque on pensait, comme Newton que la lumière était d'ordre corpusculaire. En conséquence, si on crée deux sources de lumière (dite diffractée) à travers deux fentes d'une paroi opaque, on devrait obtenir sur un écran distant deux taches lumineuses correspondant à deux flux de particules. Or il n'en est rien et on observe une zone d'interférence, c'est-à-dire une alternance de raies sombres et brillantes, ce qui ne peut être dû qu'au caractère ondulatoire de la lumière (interférences entre les ondes). Plus d'un siècle plus tard les physiciens quantiques ont réalisé cette expérience en réussissant à faire passer par les fentes de Young des photons un par un (prouesse technologique !). Pourquoi un par un ? En particulier pour être sûr qu'il n'y a pas de particules intriquées. Les résultats de ces expériences sont extraordinairement surprenants : d'une part on observe également des franges d'interférence ; d'autre part si un dispositif permet de savoir par quelle fente est passé le photon, les franges disparaissent et le photon se comporte d'une manière uniquement corpusculaire. Force est d'en déduire que c'est la nature du dispositif expérimental qui détermine le caractère corpusculaire ou ondulatoire de la particule !

À partir des années 1980 le perfectionnement des dispositifs de mesure a permis de multiplier les expériences permettant d'étudier le comportement des particules quand elles sont injectées une par une. Le dispositif le plus utilisé est celui de Mach-Zehnder (cf. le chapitre "Interférences quantiques" du livre pour une description précise et illustrée). Il a permis en particulier de mettre en évidence le phénomène appelé "interaction à une particule" qui généralise en quelque sorte l'expérience des fentes de Young : on ne peut pas savoir à la fois par où passe la particule et obtenir des interférences.

On a dit plus haut que John Bell a permis de trancher en faveur de Bohr, contre Einstein dans la polémique EPR. Pour cela il avait imaginé que la particule possède certaines caractéristiques que l'on ne connaît pas et qu'il avait appelées "variables cachées". En traitant le problème de manière théorique et statistiquement, il avait calculé une certaine grandeur S et démontré que s'il existe des variables cachées on doit obtenir l'inégalité -2 < S <2. Or le calcul lui a montré que la mécanique quantique fournit une valeur S=2,8. La violation des inégalités de Bell montre qu'il n'y a pas de variables cachées et que Bohr avait raison. Mais ce n'est que dans les années 1980 que le physicien français Alain Aspect a pu mettre au point un dispositif expérimental qui valide le résultat théorique de Bell. Il trouve quant à lui, par la mesure, une valeur proche de S=2,7. Des expériences ultérieures et des vérifications sont toujours en cours, mais il semble très probable que l'hypothèse des variables cachées soit définitivement invalidée.

En 1924 un jeune physicien indien Satyendranath Bose, imagine de traiter la lumière comme un gaz composé de photons. Cette idée est bonne puisqu'elle lui permet de retrouver la formule de Planck, avec une particularité qui n'a l'air de rien mais qui est fondamentale : il considère que tous les photons sont des particules identiques et indiscernables. Pourquoi est-ce fondamental ? Parce que si on veut étudier les différents états de ce gaz, il importe peu de savoir si tel ou tel photon en est responsable (puisqu'ils sont tous interchangeables). Einstein est enthousiasmé par les travaux de Bose. Il poursuit le raisonnement et montre, par le calcul, que si on remplace le gaz par des atomes, et que dans une enceinte on abaisse la température de ce gaz jusqu'à une valeur proche du zéro absolu, sans faire passer ce gaz à l'état liquide puis solide, tous les atomes se retrouvent dans le même état quantique (gaz monoatomique) appelé "condensat de Bose-Einstein". Un nouvel objet quantique est né ! Le problème expérimental est très complexe : il faut absolument éviter que le gaz se condense puis se solidifie. Les travaux correspondants ont été récompensés par deux prix Nobel en 1997 et 2001. Bose, l'initiateur de la théorie, n'a pas eu cet honneur. Lot de consolation : une particule porte son nom, le boson. Les applications pratiques qui découlent de ces condensats sont en cours d'étude : laser atomique, horloge atomique, etc.

Le prix Nobel 2012 a été attribué à un chercheur français Serge Haroche. Sur quoi portent ses travaux ? On sait qu'un photon, dès qu'il est vu ou détecté est absorbé, donc détruit. À partir de 1990 Serge Haroche va travailler sur un dispositif permettant de "voir" la vie d'un photon. Là encore le dispositif expérimental est très complexe et nécessite en particulier des miroirs dont on peut dire qu'ils sont les meilleurs du monde. Le principe très général est le suivant : il existe une catégorie d'atomes (les atomes de Rydberg) qui possèdent un très grand nombre de couches (au sens de Bohr) est qui sont extrêmement sensibles à la présence d'un photon. Il faut pour cela que l'énergie du photon soit égale à l'énergie de transition de deux couches voisines. Mais si c'est le cas, le photon est absorbé et détruit. L'idée de Serge Haroche est de donner au photon une énergie qui soit très proche, mais non égale, à l'énergie de transition entre deux couches. Dans ces conditions le photon n'est pas détruit et "poursuit sa vie" mais la sensibilité de l'atome de Rydberg fait qu'il subit une très légère perturbation que l'on sait détecter. En conséquence si le photon et l'atome de Rydberg (ou plusieurs atomes successivement) sont injectés dans une "cavité" entre deux miroirs, tant que la perturbation atomique est détectée on sait que le photon "est en vie" et effectue des allers-retours entre les miroirs. Les chercheurs ont pu ainsi suivre la "vie" d'un photon pendant 500 ms et même observer la disparition successive de sept photons injectés dans la même cavité. Ces expériences ouvrent la porte à la possibilité de construire des ordinateurs quantiques. Il faudrait pour cela reproduire à l'échelle industrielle le dispositif de Serge Haroche, et lui-même admet qu'on en est encore loin.

Les applications

Le laser a une relation privilégiée avec la mécanique quantique. Il en existe de nombreux types mais le principe général est d'arriver à générer un ensemble de photons (un rayon laser) constituant une émission de lumière cohérente. "Cohérente" signifie ici que tous les photons du rayon ont des caractéristiques strictement identiques, en particulier leur fréquence ce qui explique qu'un rayon laser est monocoloré. Pour arriver à ce résultat il faut, par émissions successives de photons, "bombarder" des atomes préalablement préparés pour être excités, puis désexcités, par ces photons. Dans ce processus il y a des pertes (par exemple des photons absorbés par l'appareillage) et des gains (des photons surnuméraires émis par les atomes). Lorsque les gains dépassent les pertes on est arrivé à un seuil qui déclenche "l'effet laser". En fait les choses ne sont pas aussi simples que ce qui vient d'être résumé et le dispositif expérimental est complexe et demande plusieurs étapes successives. On se reportera utilement au chapitre "Le laser : un outil quantique" du livre de Charles Olivero, chapitre d'autant mieux documenté que c'est sur un des aspects de ce thème qu'a porté sa thèse de doctorat.
La très grande variété de lasers, quant à leur taille, leur puissance et la fréquence du rayonnement, induit une très grande variété d'applications pratiques. Le grand public sait bien que c'est au laser que l'on doit de pouvoir graver et lire des CD. Les disques "Blu-Ray" gravés par un laser de couleur bleue peuvent stocker jusqu'à 100 Go de données. Les personnes qui ont été opérées de la cataracte savent aussi que c'est grâce à un laser que l'opération a été effectuée. D'une manière plus générale, on utilise en chirurgie des lasers qui ne brûlent pas les tissus. Avec des lasers de plus grande puissance on entre dans le domaine industriel, par exemple la découpe très précise de plaques de bois ou d'acier ainsi que la soudure de précision. La mesure des distances, par mesure du temps d'émission et de réflexion est aussi une application courante à petite échelle, mais le laser a aussi permis de mesurer la distance entre la Terre et la Lune avec une précision de 3 mm. Enfin, n'oublions pas que le laser est un outil scientifique essentiel pour explorer la matière, en biologie comme en physique.

La cryptographie quantique consiste à garantir, grâce à la mécanique quantique, la confidentialité de messages échangés. On entre de plain-pied dans les romans et films d'espionnage ! Mais il ne s'agit pas de fiction puisque des dispositifs de cryptage utilisant ce type de procédé sont d'ores et déjà en vente. Le système est tellement astucieux que je lui consacrerai un article de blog en me basant sur les informations de l'ouvrage analysé ici. À suivre donc.

La téléportation a, elle-aussi, alimenté l'imagination des auteurs de science-fiction. Il s'agit de la possibilité de transporter instantanément "quelque chose" d'un point à l'autre de l'espace. À l'heure actuelle le seul "quelque chose" que l'on sait téléporter est un état quantique en utilisant les propriétés de l'intrication. La première expérience de ce type a été réalisée par le physicien Anton Zellinger en 1997. Nous avons défini plus haut ce qu'est l'intrication. Charles Olivero donne un exemple (fictif car l'intrication ne concerne pas les corps macroscopiques) : "Imaginons deux amis qui possèdent chacun un jeu de cartes. L'un tire au hasard un roi de pique. Si les jeux sont intriqués comme les photons on peut être certain que le second va aussi tirer le roi de pique !". La téléportation sera utilisée dans les ordinateurs quantiques quand ils seront mis au point, dans un avenir certainement proche. Pourquoi ne peut-on pas (pas encore ?) téléporter des objets macroscopiques ou, pourquoi pas, des êtres humains ? À cause du problème de la décohérence déjà évoqué : schématiquement on peut dire que dans un corps macroscopique les interférences entre les particules qui le composent et l'environnement (appareil de mesure, lumière, fond diffus cosmique, etc.) sont tellement nombreuses et complexes que les états de superposition ne peuvent subsister et que, en quelque sorte, le paquet d'onde s'effondre "naturellement". On ne peut observer que l'état non superposé, c'est-à-dire les choses, les êtres, le monde tel que nous le percevons grâce à nos sens. C'est d'ailleurs ce phénomène qui explique le paradoxe du chat de Schrödinger. 

En informatique, avec les machines actuelles, le codage des programmes est effectué avec des bits qui ne peuvent prendre que deux valeurs : 0 ou 1. Le principe de l'ordinateur quantique est d'utiliser des bits quantiques appelés qubits dont une des caractéristiques (par exemple la polarisation) se trouve dans un état de superposition quantique. Un qubit peut donc se trouver dans tout état intermédiaire entre 0 et 1. On peut intriquer des qubits entre eux ou les téléporter d'un endroit à l'autre du circuit. Des algorithmes ont déjà été écrits mais on se heurte ici aussi au problème de décohérence. Si on le résout, on disposera d'ordinateurs dont les performances seront sans commune mesure avec celle de nos ordinateurs actuels. À titre d'exemple il suffirait de 40 qubits pour stocker toute l'information existant aujourd'hui sur internet !

Aujourd'hui la physique quantique est omniprésente dans notre vie quotidienne, en particulier car elle a permis des avancées technologiques extraordinaires en électronique. Les semi-conducteurs, les transistors sont des "enfants" de la physique quantique, car c'est elle qui a permis d'expliquer pourquoi certains corps sont isolants, d'autres conducteurs et d'autres semi-conducteurs. Elle a conduit à la miniaturisation extrême des composants et aux progrès correspondants en micro-informatique et en téléphonie mobile.
Les horloges atomiques et leurs applications aux systèmes GPS sont un autre exemple d'application de la physique quantique qui a permis de donner une définition de la seconde basée sur des états de transition énergétique entre atomes. La précision est telle qu'une horloge atomique ne subit un décalage que d'une seconde en vingt millions d'années !
Enfin, il faut citer aussi l'imagerie médicale par résonance (IRM) qui utilise le spin découvert par Pauli en 1924 et qui permet de fournir une image des tissus humains en 3D.

En conclusion

Le livre de Charles Olivero est en quelque sorte une réponse au grand physicien et grand pédagogue Feynman qui a dit un jour : "Je peux me risquer à dire que personne ne comprend la mécanique quantique". La preuve est faite qu'un non-physicien peut en comprendre les fondements, les expériences essentielles et les applications. Quant à interpréter les phénomènes avec la logique cartésienne qui est la nôtre, que l'on se rassure : même les physiciens ne les ont pas tous interprétés ! Et c'est sans doute ce que voulait dire Feynman. Il en est de même pour la relativité et on ne peut que souhaiter que Charles Olivero nous livre un jour, avec le même talent, "25 clés pour comprendre la relativité restreinte et générale".

2 commentaires :

  1. Ce commentaire a été supprimé par un administrateur du blog.

    RépondreSupprimer
  2. Dans le dossier science "spécial physique quantique" qui mentionne en 4ième de couverture : Auteur : Charles Olivero DOSC_021, ISBN : 979-10-311-0430-0,
    Pages 75 et 76, il y a un schéma d'interféromètre de Mach-Zender. Sur ce schéma, la lame L1, telle qu'elle est orientée, enverrais le rayon II vers le haut, non vers le bas : ne devrait-elle pas être orientée comme les 3 autres (M1, M2 et L2) ?

    RépondreSupprimer

Vous pouvez ajouter des commentaires.