monades intégrées
Renormalisation : quand la physique des particules met l'infini sous le tapis
La renormalisation est une astuce qui permet de s'affranchir des infinis gênants dans les calculs. Elle a sauvé la physique des particules, mais quel est son bien-fondé mathématique ?
(Image : Il n'est pas nécessaire d'analyser des molécules d'eau individuelles pour comprendre le comportement des gouttelettes, ou ces gouttelettes pour étudier une vague. Ce passage d'une échelle à une autre est l'essence même de la renormalisation )
À la fin des années 1920, plusieurs médecins, comme Werner Heisenberg, Paul Dirac, Pascual Jordan, Wolfgang Pauli… font disparaître les particules ! À la place, ils préfèrent y voir des ondulations dans un champ, une sorte d'océan dans lequel, en chaque point, la valeur d'une grandeur physique est donnée. Ainsi, une vague dans ce champ est un électron, une autre un photon, et leurs interactions semblent expliquer tous les événements électromagnétiques.
Devenu un des piliers conceptuels de la description physique de l'Univers et l'explication incontournable de nombreux phénomènes, cette théorie quantique des champs n'a qu'un seul problème : elle est adossée à une technique que l'on a longtemps supposée provisoire et regardé avec suspicion, la renormalisation. "Hélas", elle est conservée indispensable pour composer avec les infinis rédhibitoires qui apparaissent dans les calculs. D'où un sentiment inconfortable, même chez ceux qui ont l'élaborée, d'utiliser un outil qui s'apparente à un château de cartes bâties sur un artifice mathématique tordu.
"C'est un procédé douteux", a écrit plus tard Richard Feynman. " Devoir utiliser à de tels tours de passe-passe nous a empêché de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente. "
Une justification de la renormalisation a pourtant été trouvée, des décennies plus tard, et en provenance d'une branche de la physique apparemment sans rapport. Le regard des médecins sur cette « hérésie » a alors changé la façon de la considérer. En effet, des chercheurs étudiant le magnétisme ont découvert que le processus ne concernait pas du tout les infinis, mais s'apparentait plutôt à une séparation de l'Univers en royaumes de tailles indépendantes, et cette nouvelle vision guide aujourd'hui de nombreux domaines. . . du physique. Quoi qu'il en soit, la renormalisation est, de l'avis de David Tong, théoricien à l'université de Cambridge, " sans doute l'avancée la plus importante de ces cinquante dernières années en physique théorique ".
L'histoire de deux charges
Selon certains critères, les théories des champs sont les plus abouties de toute la science. L'une d'elles, la théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis des prédictions théoriques qui s'accordent aux résultats expérimentaux avec une précision de 1 partie sur 1 milliard.
Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs conduisait souvent à des réponses absurdes mettant en jeu l'infini, au point que des théoriciens ont envisagé que les théories des champs soient une impasse.
Richard Feynman et d'autres, notamment Freeman Dyson, ont donc cherché de nouvelles voies. Certaines pourraient-être remis les particules sur le devant de la scène, mais, à la place, elles ont abouti à un tour de magie. Ils ont découvert que les équations de la QED conduisaient à des prédictions acceptables, à condition d'être corrigées par cette procédure impénétrable qu'est la renormalisation. En première approximation, la recette est la suivante : lorsqu'un calcul de QED conduit à une série divergente, on abrège celle-ci en intégrant la partie qui tend à s'envoler vers l'infini dans un coefficient (un nombre fixe) placé devant la somme. Puis on remplace ce coefficient par une mesure finie issue d'expérimentations, et l'on peut ensuite laisser la série désormais apprivoisée repartir vers l'infini.
"Ce ne sont tout simplement pas des mathématiques raisonnables". Paul Dirac
Certains ont vu dans ce procédé un jeu de dupes, à commencer par Paul Dirac, pionnier de la théorie des champs, qui déplorait : " Ce ne sont tout simplement pas des mathématiques raisonnables. "
Le cœur du problème – et un germe de sa solution éventuelle – se trouve dans la façon dont les médecins ont traité la charge de l'électron. Dans le mécanisme décrit, la charge électrique naît du fameux coefficient qui « avale l'infini » pendant la tambouille mathématique. Pour les théoriciens qui s'interrogent sur la signification physique de la renormalisation, la QED laisse supposer que l'électron a deux charges : une charge théorique, qui est infinie, et la charge mesurée, qui ne l'est pas. Peut-être que le cœur de l'électron contient une charge infinie, mais elle serait masquée dans la pratique par les effets du champ quantique (que l'on peut se représenter ici comme un nuage virtuel de particules positives) : en fin de compte , les expérimentateurs ne mesurent qu'une charge nette modeste.
Deux physiciens, Murray Gell-Mann et Francis Low, ont pris à bras-le-corps cette idée en 1954. Ils ont relié les deux charges de l'électron à une charge « effective » qui varie selon la distance. Plus on se rapproche (et plus on pénètre le " manteau positif " de l'électron), plus la charge est importante. Leurs travaux ont été les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les médecins quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.
La renormalisation est " la version mathématique d'un microscope ", explique Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour rechercher des théories de la gravité quantique. " Et, inversement, on peut commencer par le système microscopique et faire un zoom arrière. C'est l'association du microscope et du télescope. "
Les aimants du pont neuf
Un deuxième indice, après la piste de l'échelle, est venu du monde de la matière condensée, où les physiciens se demandaient comment l'approximation rudimentaire d'un aimant – le modèle d'Ising – parvenir à saisir les moindres détails de certaines transformations. Ce modèle n'est guère plus qu'une grille dans laquelle chaque case est dotée d'une flèche, représentant le moment magnétique d'un atome, qui pointe soit vers le haut soit vers le bas. Et pourtant, il prédit le comportement des aimants réels avec une précision remarquable.
À basse température, la plupart des moments magnétiques des atomes s'alignent (toutes les flèches de la grille pointent dans la même direction) et le matériau est donc magnétique. À l'inverse, à haute température, le désordre domine, et l'aimantation disparaît. Entre ces deux extrêmes, se niche un point de transition critique caractérisé par la coexistence d'îlots d'atomes alignés de toutes tailles. Le point essentiel est que la façon dont certaines quantités varient autour de ce " point critique " semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes qui n'ont aucun rapport, tels que la transition. . à haute pression, où l'eau liquide devient indiscernable de la vapeur d'eau.
La mise au jour de ce phénomène ubiquitaire, que les théoriciens ont donc appelé « universalité », était aussi bizarre qu'une improbable découverte révélant que les éléphants et les aigrettes se déplaçaient exactement à la même vitesse maximale.
La renormalisation capture la tendance de la nature à se distribuer en mondes essentiellement indépendants.
Les médecins n'ont pas l'habitude de s'occuper d'objets de tailles différentes en même temps. Mais le comportement universel autour des points critiques les a obligés à tenir compte de toutes les échelles de longueur à la fois. Leo Kadanoff, spécialiste de la matière condensée, a trouvé comment y parvenir en 1966 en mettant au point une technique dite " par blocs de spins ". Elle consiste à diviser une grille d'Ising trop complexe pour être abordée de front en blocs plus petits et à déterminer pour chacun d'eux l'orientation moyenne, en l'occurrence celle de la majorité des flèches qu'ils contiennent. Tout le bloc prend alors cette valeur (haut ou bas), et l'on répète le processus. Ce faisant, les détails du réseau sont lissés, comme si un zoom arrière révélait le comportement global du système.
Enfin, Kenneth Wilson, un ancien étudiant de Murray Gell-Mann qui avait un pied dans le monde de la physique des particules et un autre dans celui de la matière condensée, à l'unité des idées de son mentor et de Francis Low à celles de Léo Kadanoff. Son " groupe de renormalisation ", qu'il a décrit pour la première fois en 1971, a justifié les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valorisé à Kenneth Wilson le prix Nobel de physique en 1982… et a changé la physique pour toujours.
Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de s'imaginer le groupe de renormalisation de Wilson est de le voir comme une " théorie des théories " reposant sur le microscopique au macroscopique. Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation dépendante de l'orientation des flèches dans deux cas voisins. Mais extrapoler cette formule simple à des milliards de particules est impossible, parce que vous raisonnez à la mauvaise échelle.
Le groupe de renormalisation de Kenneth Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. Vous entreprenez par une théorie adaptée à de petites pièces, par exemple les atomes d'une bille de billard, puis vous actionnez la "moulinette mathématique" de Kenneth Wilson afin d'obtenir une théorie, cette fois pertinente pour des groupes de ces pièces, par exemple les molécules de la bille. En réitérant l'opération, vous serez finalement en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une bille entière.
C'est la magie du groupe de renormalisation : il met en évidence les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton plutôt que de l'enchevêtrement des quarks qui le constituent.
Le groupe de renormalisation de Kenneth Wilson a également suggéré que les malheurs de Richard Feynman et de ses contemporains ont fait qu'ils essayaient de comprendre l'électron d'un point de vue infiniment proche. De fait, « nous ne nous attendons pas à ce que [les théories] soient valables jusqu'à des échelles [de distance] arbitrairement petites », concède James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. . . Les médecins comprennent aujourd'hui que couper mathématiquement les sommes et disperser l'infini est la bonne façon de faire un calcul lorsque votre théorie a une taille de grille minimale intégrée. C'est comme si, explique James Fraser, " la coupure absorbait notre ignorance de ce qui se passe aux niveaux inférieurs " pour lesquels on ne dispose d'aucune information, d'aucune grille.
En d'autres termes, la QED et le modèle standard ne peuvent tout simplement rien dire de la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les médecins appellent des théories « efficaces », qui fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies est de découvrir ce qui se passe exactement quand on réduit ces distances.
Du grand au petit
Aujourd'hui, le "procédé douteux" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses rouages révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Au cours de la renormalisation, les couches submicroscopiques complexes à prendre en compte ont tendance à disparaître : elles existent bel et bien, mais elles n'ont pas d'incidence sur le tableau d'ensemble. « La simplicité est une vertu », résume Paul Fendley.
Les fondements de la renormalisation illustrent la tendance de la nature à se répartir en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent superbement les molécules individuelles de l'acier. Les chimistes font de même avec les quarks et les gluons quand ils analysent les liaisons moléculaires. La séparation des phénomènes en fonction de leur échelle, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer du grand au petit au fil des siècles, plutôt que de s'attaquer simultanément à toutes les échelles.
Cependant, l'hostilité de la renormalisation à l'égard des détails microscopiques va à la rencontre des efforts des médecins modernes, dans leur quête de comprendre le toujours plus petit. La séparation des échelles suggère qu'ils devront creuser en profondeur pour vaincre le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.
« La renormalisation nous aide à simplifier le problème », explique Nathan Seiberg, médecin théoricien à l'Institut d'études avancées, à Princeton, aux États-Unis. Mais " elle cache aussi ce qui se passe à plus courte distance. On ne peut pas avoir le beurre et l'argent du beurre… "
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Pour la science, dossier 125, Charlie Wood, 9 octobre 2024, cet article est une traduction de " Comment le 'hocus-pocus' mathématique a sauvé la physique des particules "
[
théorie du tout
]
[
autopoïèses cosmiques
]