Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 478
Temps de recherche: 0.0456s

dichotomie

Un nouvel opus magnum postule l'existence d'un lien mathématique caché, semblable à la connexion entre l'électricité et le magnétisme.

En 2018, alors qu'il s'apprêtait à recevoir la médaille Fields, la plus haute distinction en mathématiques, Akshay Venkatesh avait un morceau de papier dans sa poche. Il y avait inscrit un tableau d'expressions mathématiques qui, depuis des siècles, jouent un rôle clé dans la théorie des nombres.

Bien que ces expressions aient occupé une place prépondérante dans les recherches de Venkatesh au cours de la dernière décennie, il les gardait sur lui non pas comme un souvenir de ce qu'il avait accompli, mais comme un rappel de quelque chose qu'il ne comprenait toujours pas.

Les colonnes du tableau étaient remplies d'expressions mathématiques à l'allure énigmatique : À l'extrême gauche se trouvaient des objets appelés périodes, et à droite, des objets appelés fonctions L, qui pourraient être la clé pour répondre à certaines des questions les plus importantes des mathématiques modernes. Le tableau suggérait une sorte de relation entre les deux. Dans un livre publié en 2012 avec Yiannis Sakellaridis, de l'université Johns Hopkins, Venkatesh avait trouvé un sens à cette relation : Si on leur donne une période, ils peuvent déterminer s'il existe une fonction L associée.

Mais ils ne pouvaient pas encore comprendre la relation inverse. Il était impossible de prédire si une fonction L donnée avait une période correspondante. Lorsqu'ils ont examiné les fonctions L, ils ont surtout constaté un certain désordre.

C'est pourquoi Venkatesh a gardé le papier dans sa poche. Il espérait que s'il fixait la liste suffisamment longtemps, les traits communs de cette collection apparemment aléatoire de fonctions L lui apparaîtraient clairement. Au bout d'un an, ce n'était pas le cas.

"Je n'arrivais pas à comprendre le principe qui sous-tendait ce tableau", a-t-il déclaré.

2018 fut une année importante pour Venkatesh à plus d'un titre. En plus de recevoir la médaille Fields, il a également quitté l'université de Stanford, où il se trouvait depuis une dizaine d'années, pour rejoindre l'Institute for Advanced Study à Princeton, dans le New Jersey.

Sakellaridis et lui ont également commencé à discuter avec David Ben-Zvi, un mathématicien de l'université du Texas, à Austin, qui passait le semestre à l'institut. Ben-Zvi avait construit sa carrière dans un domaine parallèle des mathématiques, en étudiant le même type de questions sur les nombres que Sakellaridis et Venkatesh, mais d'un point de vue géométrique. Lorsqu'il a entendu Venkatesh parler de cette table mystérieuse qu'il emportait partout avec lui, Ben-Zvi a presque immédiatement commencé à voir une nouvelle façon de faire communiquer les périodes et les fonctions L entre elles.

Ce moment de reconnaissance a été à l'origine d'une collaboration de plusieurs années qui s'est concrétisée en juillet dernier, lorsque Ben-Zvi, Sakellaridis et Venkatesh ont publié un manuscrit de 451 pages. L'article crée une traduction dans les deux sens entre les périodes et les fonctions L en refondant les périodes et les fonctions L en termes d'une paire d'espaces géométriques utilisés pour étudier des questions fondamentales en physique.

Ce faisant, il réalise un rêve de longue date dans le cadre d'une vaste initiative de recherche en mathématiques appelée "programme Langlands". Les mathématiciens qui travaillent sur des questions dans le cadre de ce programme cherchent à jeter des ponts entre des domaines disparates pour montrer comment des formes avancées de calcul (d'où proviennent les périodes) peuvent être utilisées pour répondre à des questions ouvertes fondamentales en théorie des nombres (d'où proviennent les fonctions L), ou comment la géométrie peut être utilisée pour répondre à des questions fondamentales en arithmétique.

Ils espèrent qu'une fois ces ponts établis, les techniques pourront être portées d'un domaine mathématique à un autre afin de répondre à des questions importantes qui semblent insolubles dans leur propre domaine.

Le nouvel article est l'un des premiers à relier les aspects géométriques et arithmétiques du programme, qui, pendant des décennies, ont progressé de manière largement isolée. En créant ce lien et en élargissant effectivement le champ d'application du programme Langlands tel qu'il a été conçu à l'origine, le nouvel article fournit un cadre conceptuel unique pour une multitude de connexions mathématiques.

"Il unifie un grand nombre de phénomènes disparates, ce qui réjouit toujours les mathématiciens", a déclaré Minhyong Kim, directeur du Centre international des sciences mathématiques d'Édimbourg, en Écosse.

Connecter eulement  

Le programme Langlands a été lancé par Robert Langlands, aujourd'hui professeur émérite à l'Institute for Advanced Study. Il a débuté en 1967 par une lettre manuscrite de 17 pages adressée par Langlands, alors jeune professeur à l'université de Princeton, à Andre Weil, l'un des mathématiciens les plus connus au monde. Langlands proposait d'associer des objets importants du calcul, appelés formes automorphes, à des objets de l'algèbre, appelés groupes de Galois. Les formes automorphes sont une généralisation des fonctions périodiques telles que le sinus en trigonométrie, dont les sorties se répètent à l'infini lorsque les entrées augmentent. Les groupes de Galois sont des objets mathématiques qui décrivent comment des entités appelées champs (comme les nombres réels ou rationnels) changent lorsqu'on leur ajoute de nouveaux éléments.

Les paires comme celle entre les formes automorphes et les groupes de Galois sont appelées dualités. Elles suggèrent que différentes classes d'objets se reflètent l'une l'autre, ce qui permet aux mathématiciens d'étudier l'une en fonction de l'autre.

Des générations de mathématiciens se sont efforcées de prouver l'existence de la dualité supposée de Langlands. Bien qu'ils n'aient réussi à l'établir que pour des cas limités, même ces cas limités ont souvent donné des résultats spectaculaires. Par exemple, en 1994, lorsque Andrew Wiles a démontré que la dualité proposée par Langlands était valable pour une classe particulière d'exemples, il a prouvé le dernier théorème de Fermat, l'un des résultats les plus célèbres de l'histoire des mathématiques.

En poursuivant le programme de Langlands, les mathématiciens l'ont également élargi dans de nombreuses directions.

L'une de ces directions a été l'étude de dualités entre des objets arithmétiques apparentés, mais distincts, de ceux qui intéressaient Langlands. Dans leur livre de 2012, Sakellaridis et Venkatesh ont étudié une dualité entre les périodes, qui sont étroitement liées aux formes automorphes, et les fonctions L, qui sont des sommes infinies attachées aux groupes de Galois. D'un point de vue mathématique, les périodes et les L-fonctions sont des objets d'espèces totalement différentes, sans traits communs évidents.

Les périodes sont devenues des objets d'intérêt mathématique dans les travaux d'Erich Hecke dans les années 1930.

Les fonctions L sont des sommes infinies utilisées depuis les travaux de Leonhard Euler au milieu du 18e siècle pour étudier des questions fondamentales sur les nombres. La fonction L la plus célèbre, la fonction zêta de Riemann, est au cœur de l'hypothèse de Riemann, qui peut être considérée comme une prédiction sur la répartition des nombres premiers. L'hypothèse de Riemann est sans doute le plus important problème non résolu en mathématiques.

Langlands était conscient des liens possibles entre les fonctions L et les périodes, mais il les considérait comme une question secondaire dans son projet de relier différents domaines des mathématiques.

"Dans un article, [Langlands] considérait que l'étude des périodes et des fonctions L ne valait pas la peine d'être étudiée", a déclaré M. Sakellaridis.

Bienvenue dans la machine

Bien que Robert Langlands n'ait pas insisté sur le lien entre les périodes et les fonctions L, Sakellaridis et Venkatesh les considéraient comme essentiels pour élargir et approfondir les liens entre des domaines mathématiques apparemment éloignés, comme l'avait proposé Langlands.

Dans leur livre de 2012, ils ont développé une sorte de machine qui prend une période en entrée, effectue un long calcul et produit une fonction L. Cependant, toutes les périodes ne produisent pas des L-fonctions correspondantes, et la principale avancée théorique de leur livre était de comprendre lesquelles le font. (Ce travail s'appuie sur des travaux antérieurs d'Atsushi Ichino et de Tamotsu Ikeda à l'université de Kyoto).

Mais leur approche avait deux limites. Premièrement, elle n'explique pas pourquoi une période donnée produit une fonction L donnée. La machine qui transforme l'une en l'autre était une boîte noire. C'était comme s'ils avaient construit un distributeur automatique qui produisait souvent de manière fiable quelque chose à manger chaque fois que vous mettiez de l'argent, sauf qu'il était impossible de savoir ce que ce serait à l'avance, ou si la machine mangerait l'argent sans distribuer d'en-cas.

Dans tous les cas, vous deviez déposer votre argent - votre période - puis "faire un long calcul et voir quelle fonction L vous obteniez parmi un zoo de fonctions", a déclaré M. Venkatesh.

La deuxième chose qu'ils n'ont pas réussi à faire dans leur livre, c'est de comprendre quelles fonctions L ont des périodes associées. Certaines en ont. D'autres non. Ils n'ont pas réussi à comprendre pourquoi.

Ils ont continué à travailler après la publication du livre, en essayant de comprendre pourquoi la connexion fonctionnait et comment faire fonctionner la machine dans les deux sens - non seulement en obtenant une fonction L à partir d'une période, mais aussi dans l'autre sens.

En d'autres termes, ils voulaient savoir que s'ils mettaient 1,50 $ dans le distributeur automatique, cela signifiait qu'ils allaient recevoir un sachet de Cheetos. De plus, ils voulaient pouvoir dire que s'ils tenaient un sachet de Cheetos, cela signifiait qu'ils avaient mis 1,50 $ dans le distributeur automatique.

Parce qu'elles relient des objets qui, à première vue, n'ont rien en commun, les dualités sont puissantes. Vous pourriez fixer un alignement d'objets mathématiques pendant une éternité sans percevoir la correspondance entre les fonctions L et les périodes.

"La manière dont elles sont définies et données, cette période et cette fonction L, n'a rien d'évident", explique Wee Teck Gan, de l'université nationale de Singapour.

Pour traduire des choses superficiellement incommensurables, il faut trouver un terrain d'entente. L'un des moyens d'y parvenir pour des objets tels que les fonctions L et les périodes, qui trouvent leur origine dans la théorie des nombres, est de les associer à des objets géométriques.

Pour prendre un exemple ludique, imaginez que vous avez un triangle. Mesurez la longueur de chaque côté et vous obtiendrez un ensemble de nombres qui vous indiquera comment écrire une fonction L. Prenez un autre triangle et, au lieu de mesurer les longueurs, regardez les trois angles intérieurs - vous pouvez utiliser ces angles pour définir une période. Ainsi, au lieu de comparer directement les fonctions L et les périodes, vous pouvez comparer les triangles qui leur sont associés. On peut dire que les triangles "indexent" les L-fonctions et les périodes - si une période correspond à un triangle avec certains angles, alors les longueurs de ce triangle correspondent à une L-fonction correspondante.

Si une période correspond à un triangle avec certains angles, les longueurs de ce triangle correspondent à une fonction L. "Cette période et cette fonction L, il n'y a pas de relation évidente dans la façon dont elles vous sont données. L'idée était donc que si vous pouviez comprendre chacune d'entre elles d'une autre manière, d'une manière différente, vous pourriez découvrir qu'elles sont très comparables", a déclaré M. Gan.

Dans leur ouvrage de 2012, Sakellaridis et Venkatesh ont réalisé une partie de cette traduction. Ils ont trouvé un moyen satisfaisant d'indexer des périodes en utilisant un certain type d'objet géométrique. Mais ils n'ont pas pu trouver une façon similaire de penser aux fonctions L.

Ben-Zvi pensait pouvoir le faire.

Le double marteau de Maxwell

Alors que les travaux de Sakellaridis et Venkatesh se situaient légèrement à côté de la vision de Langlands, Ben-Zvi travaillait dans un domaine des mathématiques qui se situait dans un univers totalement différent - une version géométrique du programme de Langlands.

Le programme géométrique de Langlands a débuté au début des années 1980, lorsque Vladimir Drinfeld et Alexander Beilinson ont suggéré une sorte de dualité de second ordre. Drinfeld et Beilinson ont proposé que la dualité de Langlands entre les groupes de Galois et les formes automorphes puisse être interprétée comme une dualité analogue entre deux types d'objets géométriques. Mais lorsque Ben-Zvi a commencé à travailler dans le programme géométrique de Langlands en tant qu'étudiant diplômé à l'université de Harvard dans les années 1990, le lien entre le programme géométrique et le programme original de Langlands était quelque peu ambitieux.

"Lorsque le programme géométrique de Langlands a été introduit pour la première fois, il s'agissait d'une séquence d'étapes psychologiques pour passer du programme original de Langlands à cet énoncé géométrique qui semblait être un tout autre genre d'animal", a déclaré M. Ben-Zvi.

En 2018, lorsque M. Ben-Zvi a passé une année sabbatique à l'Institute for Advanced Study, les deux parties se sont rapprochées, notamment dans les travaux publiés la même année par Vincent Lafforgue, chercheur à l'Institut Fourier de Grenoble. Pourtant, M. Ben-Zvi prévoyait d'utiliser son séjour sabbatique de 2018 à l'IAS pour effectuer des recherches sur l'aspect géométrique du programme Langlands. Son plan a été perturbé lorsqu'il est allé écouter un exposé de Venkatesh.

"Mon fils et la fille d'Akshay étaient des camarades de jeu, et nous étions amis sur le plan social, et j'ai pensé que je devrais assister à certaines des conférences qu'Akshay a données au début du semestre", a déclaré Ben-Zvi.

Lors de l'une de ces premières conférences, Venkatesh a expliqué qu'il fallait trouver un type d'objet géométrique capable d'indexer à la fois les périodes et les fonctions L, et il a décrit certains de ses récents progrès dans cette direction. Il s'agissait d'essayer d'utiliser des espaces géométriques issus d'un domaine des mathématiques appelé géométrie symplectique, que Ben-Zvi connaissait bien pour avoir travaillé dans le cadre du programme géométrique de Langlands.

"Akshay et Yiannis ont poussé dans une direction où ils ont commencé à voir des choses dans la géométrie symplectique, et cela m'a fait penser à plusieurs choses", a déclaré M. Ben-Zvi.

L'étape suivante est venue de la physique.

Pendant des décennies, les physiciens et les mathématiciens ont utilisé les dualités pour trouver de nouvelles descriptions du fonctionnement des forces de la nature. Le premier exemple, et le plus célèbre, est celui des équations de Maxwell, écrites pour la première fois à la fin du XIXe siècle, qui relient les champs électriques et magnétiques. Ces équations décrivent comment un champ électrique changeant crée un champ magnétique, et comment un champ magnétique changeant crée à son tour un champ électrique. Ils peuvent être décrits conjointement comme un champ électromagnétique unique. Dans le vide, "ces équations présentent une merveilleuse symétrie", a déclaré M. Ben-Zvi. Mathématiquement, l'électricité et le magnétisme peuvent changer de place sans modifier le comportement du champ électromagnétique commun.

Parfois, les chercheurs s'inspirent de la physique pour prouver des résultats purement mathématiques. Par exemple, dans un article de 2008, les physiciens Davide Gaiotto et Edward Witten ont montré comment les espaces géométriques liés aux théories quantiques des champs de l'électromagnétisme s'intègrent dans le programme géométrique de Langlands. Ces espaces sont présentés par paires, une pour chaque côté de la dualité électromagnétique : les espaces G hamiltoniens et leur dual : Les espaces Ğ hamiltoniens (prononcés espaces G-hat).

Ben-Zvi avait pris connaissance de l'article de Gaiotto-Witten lors de sa publication, et il avait utilisé le cadre physique qu'il fournissait pour réfléchir à des questions relatives à la géométrie de Langlands. Mais ce travail - sans parler de l'article de physique qui l'a motivé - n'avait aucun lien avec le programme original de Langlands.

Jusqu'à ce que Ben-Zvi se retrouve dans le public de l'IAS en train d'écouter Venkatesh. Il a entendu Venkatesh expliquer qu'à la suite de leur livre de 2012, lui et Sakellaridis en étaient venus à penser que la bonne façon géométrique d'envisager les périodes était en termes d'espaces Hamiltoniens G. Mais Venkatesh a admis qu'ils ne savaient pas quel type d'objet géométrique associer aux L-fonctions. 

Cela a mis la puce à l'oreille de Ben-Zvi. Une fois que Sakellaridis et Venkatesh ont relié les périodes aux espaces G hamiltoniens, les objets géométriques duaux des fonctions L sont devenus immédiatement clairs : les espaces Ğ dont Gaiotto et Witten avaient dit qu'ils étaient les duaux des espaces G. Pour Ben-Zvi, toutes ces dualités, entre l'arithmétique, la géométrie et la physique, semblaient converger. Même s'il ne comprenait pas toute la théorie des nombres, il était convaincu que tout cela faisait partie d'une "grande et belle image".

To G or Not to Ğ

Au printemps 2018, Ben-Zvi, Sakellaridis et Venkatesh se sont rencontrés régulièrement au restaurant du campus de l'Institute for Advanced Study ; pendant quelques mois, ils ont cherché à savoir comment interpréter les données extraites des L-fonctions comme une recette pour construire des Ğ-espaces hamiltoniens. Dans l'image qu'ils ont établie, la dualité entre les périodes et les fonctions L se traduit par une dualité géométrique qui prend tout son sens dans le programme géométrique de Langlands et trouve son origine dans la dualité entre l'électricité et le magnétisme. La physique et l'arithmétique deviennent des échos l'une de l'autre, d'une manière qui se répercute sur l'ensemble du programme de Langlands.

"On pourrait dire que le cadre original de Langlands est maintenant un cas particulier de ce nouveau cadre", a déclaré M. Gan.

En unifiant des phénomènes disparates, les trois mathématiciens ont apporté une partie de l'ordre intrinsèque à la relation entre l'électricité et le magnétisme à la relation entre les périodes et les fonctions L.

"L'interprétation physique de la correspondance géométrique de Langlands la rend beaucoup plus naturelle ; elle s'inscrit dans cette image générale des dualités", a déclaré Kim. "D'une certaine manière, ce que [ce nouveau travail] fait est un moyen d'interpréter la correspondance arithmétique en utilisant le même type de langage.

Le travail a ses limites. Les trois mathématiciens prouvent en particulier  la dualité entre les périodes et les fonctions L sur des systèmes de nombres qui apparaissent en géométrie, appelés champs de fonctions, plutôt que sur des champs de nombres - comme les nombres réels - qui sont le véritable domaine d'application du programme de Langlands.

"L'image de base est censée s'appliquer aux corps de nombres. Je pense que tout cela sera finalement développé pour les corps de nombres", a déclaré M. Venkatesh.

Même sur les champs de fonctions, le travail met de l'ordre dans la relation entre les périodes et les fonctions L. Pendant les mois où Venkatesh a transporté un imprimé dans sa poche, lui et Sakellaridis n'avaient aucune idée de la raison pour laquelle ces fonctions L devraient être celles qui sont associées aux périodes. Aujourd'hui, la relation est logique dans les deux sens. Ils peuvent la traduire librement en utilisant un langage commun.

"J'ai connu toutes ces périodes et j'ai soudain appris que je pouvais retourner chacune d'entre elles et qu'elle se transformait en une autre que je connaissais également. C'est une prise de conscience très choquante", a déclaré M. Venkatesh.



 

Auteur: Internet

Info: https://www.quantamagazine.org. Kevin Hartnett, contributing Writer, October 12, 2023 https://www.quantamagazine.org/echoes-of-electromagnetism-found-in-number-theory-20231012/?mc_cid=cc4eb576af&mc_eid=78bedba296

[ fonction L p-adique ] [ fonction périodique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interrogation

Pourquoi cet univers ? Un nouveau calcul suggère que notre cosmos est typique.

Deux physiciens ont calculé que l’univers a une entropie plus élevée – et donc plus probable – que d’autres univers possibles. Le calcul est " une réponse à une question qui n’a pas encore été pleinement comprise ".

(image : Les propriétés de notre univers – lisse, plat, juste une pincée d’énergie noire – sont ce à quoi nous devrions nous attendre, selon un nouveau calcul.)

Les cosmologues ont passé des décennies à chercher à comprendre pourquoi notre univers est si étonnamment vanille. Non seulement il est lisse et plat à perte de vue, mais il s'étend également à un rythme toujours plus lent, alors que des calculs naïfs suggèrent que – à la sortie du Big Bang – l'espace aurait dû se froisser sous l'effet de la gravité et détruit par une énergie noire répulsive.

Pour expliquer la planéité du cosmos, les physiciens ont ajouté un premier chapitre dramatique à l'histoire cosmique : ils proposent que l'espace se soit rapidement gonflé comme un ballon au début du Big Bang, aplanissant toute courbure. Et pour expliquer la légère croissance de l’espace après cette première période d’inflation, certains ont avancé que notre univers n’est qu’un parmi tant d’autres univers moins hospitaliers dans un multivers géant.

Mais maintenant, deux physiciens ont bouleversé la pensée conventionnelle sur notre univers vanille. Suivant une ligne de recherche lancée par Stephen Hawking et Gary Gibbons en 1977, le duo a publié un nouveau calcul suggérant que la clarté du cosmos est attendue plutôt que rare. Notre univers est tel qu'il est, selon Neil Turok de l'Université d'Édimbourg et Latham Boyle de l'Institut Perimeter de physique théorique de Waterloo, au Canada, pour la même raison que l'air se propage uniformément dans une pièce : des options plus étranges sont concevables, mais extrêmement improbable.

L'univers " peut sembler extrêmement précis, extrêmement improbable, mais eux  disent : 'Attendez une minute, c'est l'univers préféré' ", a déclaré Thomas Hertog , cosmologue à l'Université catholique de Louvain en Belgique.

"Il s'agit d'une contribution nouvelle qui utilise des méthodes différentes de celles utilisées par la plupart des gens", a déclaré Steffen Gielen , cosmologue à l'Université de Sheffield au Royaume-Uni.

La conclusion provocatrice repose sur une astuce mathématique consistant à passer à une horloge qui tourne avec des nombres imaginaires. En utilisant l'horloge imaginaire, comme Hawking l'a fait dans les années 70, Turok et Boyle ont pu calculer une quantité, connue sous le nom d'entropie, qui semble correspondre à notre univers. Mais l’astuce du temps imaginaire est une manière détournée de calculer l’entropie, et sans une méthode plus rigoureuse, la signification de la quantité reste vivement débattue. Alors que les physiciens s’interrogent sur l’interprétation correcte du calcul de l’entropie, beaucoup le considèrent comme un nouveau guide sur la voie de la nature quantique fondamentale de l’espace et du temps.

"D'une manière ou d'une autre", a déclaré Gielen, "cela nous donne peut-être une fenêtre sur la microstructure de l'espace-temps."

Chemins imaginaires

Turok et Boyle, collaborateurs fréquents, sont réputés pour avoir conçu des idées créatives et peu orthodoxes sur la cosmologie. L’année dernière, pour étudier la probabilité que notre Univers soit probable, ils se sont tournés vers une technique développée dans les années 1940 par le physicien Richard Feynman.

Dans le but de capturer le comportement probabiliste des particules, Feynman a imaginé qu'une particule explore toutes les routes possibles reliant le début à la fin : une ligne droite, une courbe, une boucle, à l'infini. Il a imaginé un moyen d'attribuer à chaque chemin un nombre lié à sa probabilité et d'additionner tous les nombres. Cette technique de " l’intégrale du chemin " est devenue un cadre puissant pour prédire le comportement probable d’un système quantique.

Dès que Feynman a commencé à faire connaître l’intégrale du chemin, les physiciens ont repéré un curieux lien avec la thermodynamique, la vénérable science de la température et de l’énergie. C'est ce pont entre la théorie quantique et la thermodynamique qui a permis les calculs de Turok et Boyle.

La thermodynamique exploite la puissance des statistiques afin que vous puissiez utiliser seulement quelques chiffres pour décrire un système composé de plusieurs éléments, comme les milliards de molécules d'air qui s'agitent dans une pièce. La température, par exemple – essentiellement la vitesse moyenne des molécules d’air – donne une idée approximative de l’énergie de la pièce. Les propriétés globales telles que la température et la pression décrivent un "  macrostate " de la pièce.

Mais ce terme de un macro-état est un compte rendu rudimentaire ; les molécules d’air peuvent être disposées d’un très grand nombre de manières qui correspondent toutes au même macroétat. Déplacez un peu un atome d’oxygène vers la gauche et la température ne bougera pas. Chaque configuration microscopique unique est appelée microétat, et le nombre de microétats correspondant à un macroétat donné détermine son entropie.

L'entropie donne aux physiciens un moyen précis de comparer les probabilités de différents résultats : plus l'entropie d'un macroétat est élevée, plus il est probable. Il existe bien plus de façons pour les molécules d'air de s'organiser dans toute la pièce que si elles étaient regroupées dans un coin, par exemple. En conséquence, on s’attend à ce que les molécules d’air se propagent (et restent dispersées). La vérité évidente selon laquelle les résultats probables sont probables, exprimée dans le langage de la physique, devient la célèbre deuxième loi de la thermodynamique : selon laquelle l’entropie totale d’un système a tendance à croître.

La ressemblance avec l'intégrale du chemin était indubitable : en thermodynamique, on additionne toutes les configurations possibles d'un système. Et avec l’intégrale du chemin, vous additionnez tous les chemins possibles qu’un système peut emprunter. Il y a juste une distinction assez flagrante : la thermodynamique traite des probabilités, qui sont des nombres positifs qui s'additionnent simplement. Mais dans l'intégrale du chemin, le nombre attribué à chaque chemin est complexe, ce qui signifie qu'il implique le nombre imaginaire i , la racine carrée de −1. Les nombres complexes peuvent croître ou diminuer lorsqu’ils sont additionnés, ce qui leur permet de capturer la nature ondulatoire des particules quantiques, qui peuvent se combiner ou s’annuler.

Pourtant, les physiciens ont découvert qu’une simple transformation peut vous faire passer d’un domaine à un autre. Rendez le temps imaginaire (un mouvement connu sous le nom de rotation de Wick d'après le physicien italien Gian Carlo Wick), et un second i entre dans l'intégrale du chemin qui étouffe le premier, transformant les nombres imaginaires en probabilités réelles. Remplacez la variable temps par l'inverse de la température et vous obtenez une équation thermodynamique bien connue.

Cette astuce de Wick a conduit Hawking et Gibbons à une découverte à succès en 1977, à la fin d'une série éclair de découvertes théoriques sur l'espace et le temps.

L'entropie de l'espace-temps

Des décennies plus tôt, la théorie de la relativité générale d’Einstein avait révélé que l’espace et le temps formaient ensemble un tissu unifié de réalité – l’espace-temps – et que la force de gravité était en réalité la tendance des objets à suivre les plis de l’espace-temps. Dans des circonstances extrêmes, l’espace-temps peut se courber suffisamment fortement pour créer un Alcatraz incontournable connu sous le nom de trou noir.

En 1973, Jacob Bekenstein a avancé l’hérésie selon laquelle les trous noirs seraient des prisons cosmiques imparfaites. Il a estimé que les abysses devraient absorber l'entropie de leurs repas, plutôt que de supprimer cette entropie de l'univers et de violer la deuxième loi de la thermodynamique. Mais si les trous noirs ont de l’entropie, ils doivent aussi avoir des températures et rayonner de la chaleur.

Stephen Hawking, sceptique, a tenté de prouver que Bekenstein avait tort, en se lançant dans un calcul complexe du comportement des particules quantiques dans l'espace-temps incurvé d'un trou noir. À sa grande surprise, il découvrit en 1974 que les trous noirs rayonnaient effectivement. Un autre calcul a confirmé l'hypothèse de Bekenstein : un trou noir a une entropie égale au quart de la surface de son horizon des événements – le point de non-retour pour un objet tombant.

Dans les années qui suivirent, les physiciens britanniques Gibbons et Malcolm Perry, puis plus tard Gibbons et Hawking, arrivèrent au même résultat dans une autre direction . Ils ont établi une intégrale de chemin, additionnant en principe toutes les différentes manières dont l'espace-temps pourrait se plier pour former un trou noir. Ensuite, ils ont fait tourner le trou noir, marquant l'écoulement du temps avec des nombres imaginaires, et ont scruté sa forme. Ils ont découvert que, dans la direction du temps imaginaire, le trou noir revenait périodiquement à son état initial. Cette répétition semblable au jour de la marmotte dans un temps imaginaire a donné au trou noir une sorte de stase qui leur a permis de calculer sa température et son entropie.

Ils n’auraient peut-être pas fait confiance aux résultats si les réponses n’avaient pas correspondu exactement à celles calculées précédemment par Bekenstein et Hawking. À la fin de la décennie, leur travail collectif avait donné naissance à une idée surprenante : l’entropie des trous noirs impliquait que l’espace-temps lui-même était constitué de minuscules morceaux réorganisables, tout comme l’air est constitué de molécules. Et miraculeusement, même sans savoir ce qu’étaient ces " atomes gravitationnels ", les physiciens ont pu compter leurs arrangements en regardant un trou noir dans un temps imaginaire.

"C'est ce résultat qui a laissé une très profonde impression sur Hawking", a déclaré Hertog, ancien étudiant diplômé et collaborateur de longue date de Hawking. Hawking s'est immédiatement demandé si la rotation de Wick fonctionnerait pour autre chose que les trous noirs. "Si cette géométrie capture une propriété quantique d'un trou noir", a déclaré Hertog, "alors il est irrésistible de faire la même chose avec les propriétés cosmologiques de l'univers entier."

Compter tous les univers possibles

Immédiatement, Hawking et Gibbons Wick ont ​​fait tourner l’un des univers les plus simples imaginables – un univers ne contenant rien d’autre que l’énergie sombre construite dans l’espace lui-même. Cet univers vide et en expansion, appelé espace-temps " de Sitter ", a un horizon au-delà duquel l’espace s’étend si rapidement qu’aucun signal provenant de cet espace ne parviendra jamais à un observateur situé au centre de l’espace. En 1977, Gibbons et Hawking ont calculé que, comme un trou noir, un univers de De Sitter possède également une entropie égale au quart de la surface de son horizon. Encore une fois, l’espace-temps semblait comporter un nombre incalculable de micro-états.

Mais l’entropie de l’univers réel restait une question ouverte. Notre univers n'est pas vide ; il regorge de lumière rayonnante et de flux de galaxies et de matière noire. La lumière a provoqué une expansion rapide de l'espace pendant la jeunesse de l'univers, puis l'attraction gravitationnelle de la matière a ralenti les choses pendant l'adolescence cosmique. Aujourd’hui, l’énergie sombre semble avoir pris le dessus, entraînant une expansion galopante. "Cette histoire d'expansion est une aventure semée d'embûches", a déclaré Hertog. "Il n'est pas si facile d'obtenir une solution explicite."

Au cours de la dernière année, Boyle et Turok ont ​​élaboré une solution aussi explicite. Tout d'abord, en janvier, alors qu'ils jouaient avec des cosmologies jouets, ils ont remarqué que l'ajout de radiations à l'espace-temps de De Sitter ne gâchait pas la simplicité requise pour faire tourner l'univers par Wick.

Puis, au cours de l’été, ils ont découvert que la technique résisterait même à l’inclusion désordonnée de matière. La courbe mathématique décrivant l’histoire plus complexe de l’expansion relevait toujours d’un groupe particulier de fonctions faciles à manipuler, et le monde de la thermodynamique restait accessible. "Cette rotation de Wick est une affaire trouble lorsque l'on s'éloigne d'un espace-temps très symétrique", a déclaré Guilherme Leite Pimentel , cosmologiste à la Scuola Normale Superiore de Pise, en Italie. "Mais ils ont réussi à le trouver."

En faisant tourner Wick l’histoire de l’expansion en montagnes russes d’une classe d’univers plus réaliste, ils ont obtenu une équation plus polyvalente pour l’entropie cosmique. Pour une large gamme de macroétats cosmiques définis par le rayonnement, la matière, la courbure et une densité d'énergie sombre (tout comme une plage de températures et de pressions définit différents environnements possibles d'une pièce), la formule crache le nombre de microétats correspondants. Turok et Boyle ont publié leurs résultats en ligne début octobre.

Les experts ont salué le résultat explicite et quantitatif. Mais à partir de leur équation d’entropie, Boyle et Turok ont ​​tiré une conclusion non conventionnelle sur la nature de notre univers. "C'est là que cela devient un peu plus intéressant et un peu plus controversé", a déclaré Hertog.

Boyle et Turok pensent que l'équation effectue un recensement de toutes les histoires cosmiques imaginables. Tout comme l'entropie d'une pièce compte toutes les façons d'arranger les molécules d'air pour une température donnée, ils soupçonnent que leur entropie compte toutes les façons dont on peut mélanger les atomes de l'espace-temps et se retrouver avec un univers avec une histoire globale donnée. courbure et densité d’énergie sombre.

Boyle compare le processus à l'examen d'un gigantesque sac de billes, chacune représentant un univers différent. Ceux qui ont une courbure négative pourraient être verts. Ceux qui ont des tonnes d'énergie sombre pourraient être des yeux de chat, et ainsi de suite. Leur recensement révèle que l’écrasante majorité des billes n’ont qu’une seule couleur – le bleu, par exemple – correspondant à un type d’univers : un univers globalement semblable au nôtre, sans courbure appréciable et juste une touche d’énergie sombre. Les types de cosmos les plus étranges sont extrêmement rares. En d’autres termes, les caractéristiques étrangement vanille de notre univers qui ont motivé des décennies de théorie sur l’inflation cosmique et le multivers ne sont peut-être pas étranges du tout.

"C'est un résultat très intrigant", a déclaré Hertog. Mais " cela soulève plus de questions que de réponses ".

Compter la confusion

Boyle et Turok ont ​​calculé une équation qui compte les univers. Et ils ont fait l’observation frappante que des univers comme le nôtre semblent représenter la part du lion des options cosmiques imaginables. Mais c’est là que s’arrête la certitude.

Le duo ne tente pas d’expliquer quelle théorie quantique de la gravité et de la cosmologie pourrait rendre certains univers communs ou rares. Ils n’expliquent pas non plus comment notre univers, avec sa configuration particulière de parties microscopiques, est né. En fin de compte, ils considèrent leurs calculs comme un indice permettant de déterminer quels types d’univers sont préférés plutôt que comme quelque chose qui se rapproche d’une théorie complète de la cosmologie. "Ce que nous avons utilisé est une astuce bon marché pour obtenir la réponse sans connaître la théorie", a déclaré Turok.

Leurs travaux revitalisent également une question restée sans réponse depuis que Gibbons et Hawking ont lancé pour la première fois toute l’histoire de l’entropie spatio-temporelle : quels sont exactement les micro-états que compte l’astuce bon marché ?

"L'essentiel ici est de dire que nous ne savons pas ce que signifie cette entropie", a déclaré Henry Maxfield , physicien à l'Université de Stanford qui étudie les théories quantiques de la gravité.

En son cœur, l’entropie résume l’ignorance. Pour un gaz constitué de molécules, par exemple, les physiciens connaissent la température – la vitesse moyenne des particules – mais pas ce que fait chaque particule ; l'entropie du gaz reflète le nombre d'options.

Après des décennies de travaux théoriques, les physiciens convergent vers une vision similaire pour les trous noirs. De nombreux théoriciens pensent aujourd'hui que la zone de l'horizon décrit leur ignorance de ce qui s'y trouve, de toutes les façons dont les éléments constitutifs du trou noir sont disposés de manière interne pour correspondre à son apparence extérieure. (Les chercheurs ne savent toujours pas ce que sont réellement les microétats ; les idées incluent des configurations de particules appelées gravitons ou cordes de la théorie des cordes.)

Mais lorsqu’il s’agit de l’entropie de l’univers, les physiciens se sentent moins sûrs de savoir où se situe leur ignorance.

En avril, deux théoriciens ont tenté de donner à l’entropie cosmologique une base mathématique plus solide. Ted Jacobson , physicien à l'Université du Maryland réputé pour avoir dérivé la théorie de la gravité d'Einstein de la thermodynamique des trous noirs, et son étudiant diplômé Batoul Banihashemi ont explicitement défini l'entropie d'un univers de Sitter (vacant et en expansion). Ils ont adopté la perspective d’un observateur au centre. Leur technique, qui consistait à ajouter une surface fictive entre l'observateur central et l'horizon, puis à rétrécir la surface jusqu'à ce qu'elle atteigne l'observateur central et disparaisse, a récupéré la réponse de Gibbons et Hawking selon laquelle l'entropie est égale à un quart de la surface de l'horizon. Ils ont conclu que l’entropie de De Sitter compte tous les microétats possibles à l’intérieur de l’horizon.

Turok et Boyle calculent la même entropie que Jacobson et Banihashemi pour un univers vide. Mais dans leur nouveau calcul relatif à un univers réaliste rempli de matière et de rayonnement, ils obtiennent un nombre beaucoup plus grand de microétats – proportionnels au volume et non à la surface. Face à ce conflit apparent, ils spéculent que les différentes entropies répondent à des questions différentes : la plus petite entropie de De Sitter compte les microétats d'un espace-temps pur délimité par un horizon, tandis qu'ils soupçonnent que leur plus grande entropie compte tous les microétats d'un espace-temps rempli d'espace-temps. matière et énergie, tant à l’intérieur qu’à l’extérieur de l’horizon. "C'est tout un shebang", a déclaré Turok.

En fin de compte, régler la question de savoir ce que comptent Boyle et Turok nécessitera une définition mathématique plus explicite de l’ensemble des microétats, analogue à ce que Jacobson et Banihashemi ont fait pour l’espace de Sitter. Banihashemi a déclaré qu'elle considérait le calcul d'entropie de Boyle et Turok " comme une réponse à une question qui n'a pas encore été entièrement comprise ".

Quant aux réponses plus établies à la question " Pourquoi cet univers ? ", les cosmologistes affirment que l’inflation et le multivers sont loin d’être morts. La théorie moderne de l’inflation, en particulier, est parvenue à résoudre bien plus que la simple question de la douceur et de la planéité de l’univers. Les observations du ciel correspondent à bon nombre de ses autres prédictions. L'argument entropique de Turok et Boyle a passé avec succès un premier test notable, a déclaré Pimentel, mais il lui faudra trouver d'autres données plus détaillées pour rivaliser plus sérieusement avec l'inflation.

Comme il sied à une grandeur qui mesure l’ignorance, les mystères enracinés dans l’entropie ont déjà servi de précurseurs à une physique inconnue. À la fin des années 1800, une compréhension précise de l’entropie en termes d’arrangements microscopiques a permis de confirmer l’existence des atomes. Aujourd'hui, l'espoir est que si les chercheurs calculant l'entropie cosmologique de différentes manières peuvent déterminer exactement à quelles questions ils répondent, ces chiffres les guideront vers une compréhension similaire de la façon dont les briques Lego du temps et de l'espace s'empilent pour créer l'univers qui nous entoure.

"Notre calcul fournit une énorme motivation supplémentaire aux personnes qui tentent de construire des théories microscopiques de la gravité quantique", a déclaré Turok. "Parce que la perspective est que cette théorie finira par expliquer la géométrie à grande échelle de l'univers."

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 17 nov 2022

[ constante fondamentale ] [ 1/137 ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective

La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.

Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.

Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.

Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.

Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".

 L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).

S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.

LE CŒUR DU PROBLÈME

Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.

Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.

Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.

Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.

Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.

Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.

Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.

ASPECTS CRUCIAUX DE LA RÉALITÉ

Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.

La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.

La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.

La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.

Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.

Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.

Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.

Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.

En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.

CHOISISSEZ VOTRE POISON

Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.

Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.

D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.

Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

UNE NON LOCALITÉ PLUS PROFONDE

Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.

 Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.

Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.

En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."

Auteur: Internet

Info: https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023

[ enchevêtrement quantique ] [ régions de l'espace-temps ] [ monde subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

parapsychologie

Le pays des aveugles de Koestler (I) 

Ainsi, après plusieurs détours, nous voilà de retour à notre point de départ. Ce "sentiment océanique" mystique se situe certainement à un étage supérieur de cette spirale que celui de l'enfant nouveau-né. L'enfant n'a pas encore d'identité personnelle, le mystique et le medium l'ont eux transcendée. Cette spirale a beaucoup de cercles, mais à chaque tour nous sommes confrontés à la même polarité et au même genre de monade, dont une face dit que je suis le centre du monde, et l'autre que je suis une petite partie en quête de la totalité. Nous pouvons considérer les phénomènes de parapsychologie comme les fruits de cette recherche - qu'ils se soient produits spontanément ou en laboratoire. La perception extra sensorielle apparait alors comme la plus haute manifestation du potentiel d'intégration de la matière vivante - qui, chez les humains, s'accompagne généralement d'un type d'auto-transcendance de l'émotion.

Alors que tout au long de notre excursion dans la biologie et la physique nous étions sur un terrain scientifique solide, nous voilà en pleine étape spéculative. Je ne prétends pas que ce soit un plus. Mais c'est la science moderne elle-même, avec ses vues paradoxales, qui nous y incite. Nous ne nous arrêterons pas à la "classique" télépathie-ESP ni à la prévision à court terme - pour lesquelles des explications physiques peuvent encore être trouvée. Car exclure clairvoyance, psychokinésie et coïncidences de séries ou de synchronicités, serait arbitraire, tout en laissant les choses telles qu'elles étaient avant. D'autre part, si on prend la "Tendance Intégrative" comme un principe universel comprenant des phénomènes causals, l'image devient grandement simplifiée, même si elle est encore hors de portée de notre compréhension. Au lieu de plusieurs mystères, nous voilà aujourd'hui confrontés à une seule tendance évolutive irréductible, issue de la constitution d'ensembles plus complexes venant de pièces diversifiées. La doctrine hippocratique de la "sympathie de toutes choses" en est un paradigme précoce. L'évolution des connaissances, avec ses maillages en branches spécialisées et leur confluence vers un delta unifié, en est un autre.

On pourrait en effet le substituer à la maladresse de termes comme "sérialité" et "Synchronicité" - qui mettent l'accent sur le temps seul, avec pour résultat une non-incarcération grâce à des expressions comme "évènements confluentiels". Les évènements confluentiels seraient-ils causals de manifestations d'une tendance à l'intégration. L'apparition du scarabée de Jung serait alors un évènement confluentiel. Ainsi les effets de la psychokinésie comme le lancer de dés et autres phénomènes paranormaux seraient aussi causals de ces phénomènes. Si on leur prête une signification, c'est qu'ils donnent l'impression d'avoir un lien de causalité, même si ils ne sont manifestement pas de cette sorte de pseudo-causalité. Le scarabée semble être attiré à la fenêtre de Jung par le patient qui raconte son rêve, les dés semblent être manipulés par la volonté de l'expérimentateur, le clairvoyant semble voir les cartes cachées. Les potentiels intégratifs de la vie semblent inclure la capacité de produire des effets pseudo-causals - qui provoquent un évènement confluentiel sans se soucier, pour ainsi dire, de l'emploi d'agents physiques. Il est donc très difficile de tracer une ligne de démarcation nette séparant causalité et non-causalité des évènements. Les animaux aveugles peuvent sentir leur chemin par des usages physiques plus grossiers comme le toucher ou l'odorat. Les chauves-souris utilisent une sorte de radar - ce qui il n'y a pas si longtemps aurait été vu par les naturalistes comme une hypothèse bien saugrenue. Des animaux équipés pour réagir aux photons - particules avec une masse nulle au repos qui peuvent également se comporter comme des ondes dans un milieu et, partant, semblent défier la causalité. Des hommes sans yeux comme les citoyens des pays des aveugles, rejetteraient surement l'affirmation qu'on peut percevoir des objets éloignés sans contact par toucher comme un non-sens occulte - ou bien déclareraient qu'une telle faculté, si elle existe vraiment, est certainement au-delà du domaine de la causalité physique, et devrait être appelé perception extra-sensorielle.

Un des neurophysiologistes les plus respectés de Grande-Bretagne, le Dr W. Walter Grey, a réalisé ces dernières années une série d'expériences remarquables. Il s'est fabriqué une machine électrique, qui par un effort de volonté, peut influer sur les évènements externes sans mouvement ni action manifeste via les impalpables pics électriques du cerveau. Cet effort nécessite un état particulier de concentration, composé paradoxal de détachement et d'excitation. La procédure expérimentale de Grey Walter peut être décrite de manière simplifiée comme suit. Des électrodes fixées sur le cuir chevelu et le cortex frontal du sujet transmettent les vagues électriques des activités cervicales vers un amplificateur d'ondes via une machine. En face de l'objet il y a un bouton : si on le presse une "scène intéressante" apparait sur un écran de télévision. Mais, environ une seconde avant qu'on appuie sur le bouton, une surtension électrique d'une vingtaine de microvolts se produit dans une grande partie du cortex du sujet, on la nomme "vague de préparation". Mais les circuits de l'appareil peuvent être réglés de telle sorte que la "vague de préparation" amplifiée soit suffisante pour déclencher l'interrupteur et faire ainsi apparaitre la scène de télévision une fraction de seconde avant que le sujet ait effectivement appuyé sur le bouton. C'est ce qu'on appelle un "démarrage automatique". Un sujet intelligent se rend vite compte que son action a le résultat escompté avant qu'il n'ait effectivement déplacé son doigt, et donc il cesse généralement d'appuyer sur le bouton: les images apparaissent comme et quand il les veut... Mais, pour que cet effet soit durable, il est essentiel que le sujet "veuille" vraiment que l'évènement se produise, et donc il doit se concentrer sur l'évocation de cet évènement précis. Lorsque l'attention du sujet se détache à cause d'une présentation monotone, ou qu'il "se concentre sur la concentration", le potentiel du cerveau ne parvient pas à déclencher la vague. Ce démarrage automatique peut être combiné avec un auto-stop afin que le sujet puisse acquérir une image en voulant son apparition sur l'écran du téléviseur, puis l'effacer dès qu'il a terminé son inspection de celle-ci.

Du point de vue du sujet, c'est une expérience très particulière, parfois accompagnée de signes d'excitation contenue; une diurèse [évacuation d'urine] a été très marquée pour deux des expérimentateurs. Examinant ces expériences Renee Haynes rédacteur en chef du Journal de la SPR a déclaré: En principe, bien sûr, ce n'est pas plus remarquable que ce qui arrive quand un enfant regarde avec étonnement, quand, avec sa main, il prouve la puissance de sa volonté en décidant de lever le petit doigt ou en le déplaçant. En pratique, c'est étonnant parce que ce mode pour exercer une influence sur le monde extérieur est fort peu familier à l'homme, même s'il est probablement banal pour une anguille électrique. Il est aussi très intéressant en ce qu'il a amené le Dr Grey Walter a utiliser avec un certain embarras, un mot tel que "pouvoir de la volonté". Cela, on s'en souvient, fut aussi l'attitude de Sir John Eccles quand il considérait que l'action de "volonté mentale" du "cerveau physique", comme le mystère de base, et la psychokinésie simplement comme une extension de celui-ci. On pourrait décrire l'expérience Grey Walter comme de la "pseudo-télékinésie" car il y a des fils qui relient les électrodes et crâne du sujet avec l'appareil TV. Mais on pourrait tout aussi bien décrire l'action de l'esprit du sujet sur son propre cerveau comme une pseudo-causalité. Ou nous pourrions dire que le sujet a découvert une façon plus élégante de produire un "évènement confluentiel" sans prendre la peine d'employer des agents physiques. Dans ce contexte il nous faut maintenant parler du rapport hypnotique.

Jusqu'au milieu du siècle dernier, l'hypnose a été traitée comme une fantaisie occulte par la science occidentale (bien que dans d'autres cultures, elle ait été prise comme une acquis). Aujourd'hui elle est devenue si respectable et banale que nous avons tendance à oublier que nous n'avons pas d'explication la concernant. On a démontré qu'un sujet approprié peut être temporairement sourd, muet, aveugle, anesthésié, amené à avoir des hallucinations ou revivre des scènes de son passé. Il peut être amené à oublier ou à se rappeler ce qui s'est passé pendant la transe avec un claquement de doigts. On peut lui enjoindre une suggestion post-hypnotique qui lui fera exécuter le lendemain, à 5 heures précises, une action stupide comme le déliement de ses lacets - et aussi trouver une certaine rationalité à cet acte. Les utilisations de l'hypnose médicale sur des patients appropriés en dentisterie, obstétrique et en dermatologie sont bien connues. Moins connues, cependant, sont les expériences de A. Mason et S. Black sur la suppression des réactions cutanées allergiques par l'hypnose. On injecta à des patients des extraits de pollen, auxquels ils étaient très allergiques, et après le traitement hypnotique, ils cessèrent de montrer la moindre réaction. Avec l'hypnose, d'autres patients n'ont pas eu de réaction allergique contre le bacille de la tuberculose. Comment les suggestions hypnotiques peuvent-elles modifier la réactivité chimique des tissus au niveau microscopique reste donc une conjecture. Après la guérison remarquable de Mason par hypnose d'un garçon de seize ans souffrant d'ichtyose (la maladie de peau de poisson, une affection congénitale que l'on croyait incurable) un évaluateur du British Medical Journal a fait remarquer que ce cas unique suffirait pour exiger "une révision des concepts courants sur la relation entre l'esprit et le corps ". Cette révision des concepts actuels est attendue depuis longtemps. Nous ne savons pas si Eddington avait raison quand il a dit que le monde est fait de matière-esprit, et qu'il n'est certainement pas fait de l'étoffe des petites boules de billards du physicien du dix-neuvième siècle qui volaient dans tous les sens jusqu'à ce que le hasard les fasse s'agréger en une amibe.

Dans son adresse de 1969 à l'American Society for Psychical Research, que j'ai cité précédemment, le professeur Henry Margenau a dit ceci : Un artefact parfois invoqué pour expliquer la précognition est de prendre en compte un temps multidimensionnel. Ce qui permet un véritable passage vers l'arrière du temps, ce qui pourrait permettre à certains intervalles, positifs dans un sens du temps, de devenir négatifs ("effet avant la cause") dans un autre. En principe, ça représente un schéma valable, et je ne connais pas la critique qui pourra l'exclure en tant que démarche scientifique. Si elle est acceptable, cependant, une mesure entièrement nouvelle de l'espace-temps doit être développée. J'ai sondé quelques suggestions que la physique pourrait offrir comme solution à ce genre de problème que vous rencontrez. Les résultats positifs, je le crains, sont maigres et décevants, mais peut-être que cela vaut-il quand même une vraie étude. Mais pourquoi, voudrai-je maintenant demander, est-il nécessaire d'importer vers une nouvelle discipline tous les concepts approuvés d'une ancienne science à son stade actuel de développement? La physique n'adhère pas servilement aux formulations grecques rationalistes qui l'ont précédé, il a bien fallu créer nos propres constructions spécifiques.

Le parapsychologue, je pense ... doit voler de ses propres ailes et probablement de manière plus audacieuse que ce que les conditions que la physique d'aujourd'hui suggèrent - et aussi tolérer sans trop de souci les voix stridentes et critiques des scientifiques "hard-boiled", pragmatiques et satisfaits, et ainsi continuer sa propre recherche minutieuse vers une meilleure compréhension via de nouvelle sortes d'expériences, peut-être aussi avec des concepts qui apparaissent étranges. Nous sommes entourés de phénomènes que l'existence nous fait soigneusement ignorer, ou, s'ils ne peuvent pas être ignorés, nous les rejetons comme des superstitions. L'homme du XIIIe siècle ne se rendait pas compte qu'il était entouré de forces magnétiques. Nous n'avons donc pas la conscience sensorielle directe de beaucoup de manifestations, ni des douches de neutrinos qui nous traversent, ni d'autres "influences" inconnues. Donc, nous pourrions tout aussi bien écouter les conseils de Margenau et créer nos propres constructions "spécifiques", supposant que nous vivons plongés dans une sorte de "psycho-champ magnétique" qui produit des évènements confluentiels... tout ceci par des moyens qui dépassent les concepts classiques de la physique. Des buts et leur conception qui nous sont inconnus certes, mais nous estimons qu'il doivent être en quelque sorte liés à un effort vers une forme supérieure de l'ordre et de l'unité dans toute cette diversité que nous observons au travers de notre appréciation de l'évolution de l'univers dans son ensemble, de la vie sur terre, de la conscience humaine et, enfin, de la science et de l'art.

Un mystère "plus haut d'un cran" est plus facile à accepter qu'une litière de puzzles indépendants. Cela n'explique pas pourquoi le scarabée est apparu à la fenêtre, mais au moins on pourra l'adapter aux évènements confluentiels et autres phénomènes paranormaux d'une conception unifiée. Il ya, cependant, un aspect profondément troublant à ces phénomènes. Les évènements paranormaux sont rares, imprévisible et capricieux. C'est comme nous l'avons vu, la principale raison pour laquelle les sceptiques se sentent en droit de rejeter les résultats des cartes devinées et autres expériences de psychokinésie, en dépit de preuves statistiques qui, dans tout autre domaine de la recherche, suffiraient à prouver cette hypothèse. Une des raisons du caractère erratique de l'ESP a déjà été mentionnée : notre incapacité à contrôler les processus inconscients sous-jacents. Les expériences de Grey Walter n'étaient pas concernées par l'ESP, mais il a bien dû se rendre compte que la "vague de préparation" ne pouvait atteindre le seuil suffisant que si le sujet était dans un état décrit comme "un composé paradoxal de détachement et d'excitation".

Les expériences paranormales spontanées sont toujours liées à un certain type d'auto-transcendance de l'émotion, comme dans les rêves télépathiques ou lors de transe médiumnique. Même dans le laboratoire, où là aussi le rapport affectif entre l'expérimentateur et le sujet est d'une importance décisive. L'intérêt du sujet dans le mystère de l'ESP en lui-même évoque une émotion auto-transcendante. Lorsque que son intérêt baisse à la fin d'une longue séance ESP, il mpntre un déclin caractéristique du nombre de "hits" sur la feuille de score. Cet "effet de déclin" peut être considéré comme une preuve supplémentaire de la réalité de l'ESP. Il y a aussi une diminution globale de la performance de la plupart des sujets après une longue série de séances. Ils s'ennuient. Les compétences les plus normales s'améliorent avec la pratique. Avec l'ESP c'est le contraire.

Un autre argument relatif à la rareté apparente des phénomènes paranormaux a été présentée par le regretté professeur Broad dans un article de philosophie: "Si la cognition paranormale et la causalité sont des faits paranormaux, il est alors fort probable que cela ne se limite pas à ces très rares occasions pendant lesquelles elles se manifestent sporadiquement, ou de façon spectaculaire, ou dans des conditions très particulières pendant lesquelles leur présence peut être expérimentalement établie. Ces phénomènes pourraient très bien être en fonction continue en arrière-plan de nos vies normales. Notre compréhension et nos malentendus avec nos semblables, notre humeur, l'émotionnel général en certaines occasions, les idées qui surgissent soudainement dans nos esprits sans aucune cause évidente introspectable; nos réactions émotionnelles inexplicables immédiates vis à vis de certaines personnes... et ainsi de suite, tout cela pourrait être en partie déterminé par une meilleure connaissance du paranormal et autres influences causales paranormales."

Collègue du professeur Broad à Oxford, le professeur Price a ajouté cette suggestion intéressante en ce qui concerne le caprice apparent des ESP: "Il semble que les impressions reçues par télépathie ont quelques difficultés à franchir un seuil pour se manifester à la conscience. Il semble qu'il y ait une barrière ou un mécanisme répressif qui tende à les exclure de la conscience, une barrière qui est assez difficile à passer, même si on fait usage de toutes sortes d'appareils pour la surmonter. Parfois, en ayant recours aux mécanismes musculaires du corps, ou en les faisant émerger sous forme de parole ou d'écriture automatique. Parfois, ces phénomènes apparaissent sous forme de rêves, parfois d'hallucinations visuelles ou auditives. Et souvent, ils peuvent émerger sous un aspect déformé et symbolique (comme d'autres contenus mentaux inconscients le font). Il est plausible que beaucoup de nos pensées quotidiennes et d'émotions soient télépathes, ou en partie d'origine télépathique, mais elles ne sont pas reconnues comme telles car elles sont trop déformées et mélangées avec d'autres contenus mentaux en franchissant le seuil de la conscience.

Adrian Dobbs, commentant ce passage, a soulevé un point important dans un texte très intéressant et suggestif. Il évoque l'image de l'âme ou du cerveau comme contenants un assemblage de filtres sélectifs, conçus pour couper les signaux indésirables à des fréquences voisines, dont certaines parviendraient sous une forme déformée, exactement comme dans une réception radio ordinaire. La "théorie du filtre", comme on pourrait l'appeler, remonte en fait à Henri Bergson. Elle a été reprise par divers auteurs sur la perception extra-sensorielle. Il s'agit en fait simplement d'une extrapolation de ce que nous savons au sujet de la perception sensorielle ordinaire. Nos principaux organes des sens sont comme des fentes qui admettent seulement une gamme de fréquence très étroite d'ondes électromagnétiques et sonores. Mais même la quantité d'infos qui entrent par ces fentes étroites, c'est déjà trop. La vie serait impossible si nous devions prêter attention aux millions de stimuli qui bombardent nos sens - ce que William James a appelé "l'épanouissement de la multitude du bourdonnement des sensations". Ainsi, le système nerveux, et surtout le cerveau, fonctionnent comme une hiérarchie de filtrages et de classifications de dispositifs qui éliminent une grande partie de nos entrées sensorielles sous forme de " bruits" non pertinents", pour traiter les bonnes informations sous forme gérable avant qu'elles ne soient présentées à la conscience.

Un exemple souvent cité de ce processus de filtrage est le "phénomène cocktail" qui nous permet d'isoler une seule voix dans le bourdonnement général. Par analogie, un mécanisme de filtrage similaire peut être supposé nous protéger de la floraison et de la multitude de bourdonnement des images, des messages, des impressions et des événements confluentiels du "psycho-champ magnétique" qui nous entoure. Comme il s'agit d'un point de grande importance pour essayer de comprendre pourquoi les phénomènes paranormaux se présentent dans ces formes inexplicables et arbitraire, je vais livrer quelques citations plus pertinentes sur ce sujet. Ainsi le psychiatre James S. Hayes, écrivant dans The Scientist, spécule: Je pense depuis longtemps que les questions classiques posées sur la télépathie ("Cela se passe-t'il" et si oui, "comment?") sont moins susceptibles d'être fructueuses que cette question: "Si la télépathie existe, qu'est-ce qui l'empêche de se produire plus ? Comment l'esprit (ou le cerveau) se protègent-ils contre l'afflux potentiel de l'expérience des autres? "

Et Sir Cyril Burt, à nouveau: La conception naturelle qu'a l'homme de l'univers, ou plutôt de la partie étroite à laquelle il a accès, est celle d'un monde d'objets tangibles de taille moyenne, se déplaçant à des vitesses modérées de manière visible en trois dimensions, réagissant à l'impact de forces de contact (le push et pull de simples interactions mécaniques), le tout en conformité avec des lois relativement simples. Jusqu'à tout récemment la conception de l'univers adoptée par le chercheur, son critère de la réalité, était celui de l'Incrédulité de saint Thomas : "ce qui peut être vu ou touché". Pourtant, supputer que sur une telle base que nous pourrions construire une image complète et comprise de l'univers c'est comme supposer que le plan d'une rue de Rome nous dirait ce à quoi la Ville Eternelle ressemblerait.

La nature semble avoir travaillé sur un principe identique. Nos organes des sens et notre cerveau fonctionnent comme une sorte de filtre complexe qui limite et dirige les pouvoirs de clairvoyance de l'esprit, de sorte que dans des conditions normales notre attention soit concentrée seulement sur des objets ou des situations qui sont d'une importance biologique pour la survie de l'organisme et de l'espèce.

En règle générale, il semblerait que l'esprit rejette les idées venant d'un autre esprit comme le corps rejette les greffes provenant d'un autre corps. Burt résume son point de vue, en nous rappelant que la physique contemporaine reconnaît quatre types d'interactions (forte, faible, électromagnétique et gravitationnelle), dont chacune obéit à ses propres lois, et, jusqu'à présent en tout cas, ce modèle a vaincu toutes les tentatives de le réduire à autre chose. Cela étant, il ne peut y avoir aucun antécédent improbable qui nous interdise de postuler un autre système et/ou un autre type d'interaction, en attendant une enquête plus intensive. Un univers psychique composé d'événements ou d'entités liées par des interactions psychiques, obéissant à des lois qui leur sont propres et qui interpénètrent l' univers physique et le chevauchent partiellement, tout comme les diverses interactions déjà découvertes et reconnues se chevauchent les unes les autres. (2e partie)

Auteur: Koestler Arthur

Info: Internet et Roots of coïncidence

[ Holon ] [ corps-esprit ] [ intégratif ] [ spectre continu ] [ dépaysement moteur ]

 

Commentaires: 0

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier cognitif

Des physiciens observent une transition de phase quantique "inobservable"

Mesure et l'intrication ont toutes deux une saveur non locale "étrange". Aujourd'hui, les physiciens exploitent cette nonlocalité pour sonder la diffusion de l'information quantique et la contrôler.

La mesure est l'ennemi de l'intrication. Alors que l'intrication se propage à travers une grille de particules quantiques - comme le montre cette simulation - que se passerait-il si l'on mesurait certaines des particules ici et là ? Quel phénomène triompherait ?

En 1935, Albert Einstein et Erwin Schrödinger, deux des physiciens les plus éminents de l'époque, se disputent sur la nature de la réalité.

Einstein avait fait des calculs et savait que l'univers devait être local, c'est-à-dire qu'aucun événement survenant à un endroit donné ne pouvait affecter instantanément un endroit éloigné. Mais Schrödinger avait fait ses propres calculs et savait qu'au cœur de la mécanique quantique se trouvait une étrange connexion qu'il baptisa "intrication" et qui semblait remettre en cause l'hypothèse de localité d'Einstein.

Lorsque deux particules sont intriquées, ce qui peut se produire lors d'une collision, leurs destins sont liés. En mesurant l'orientation d'une particule, par exemple, on peut apprendre que sa partenaire intriquée (si et quand elle est mesurée) pointe dans la direction opposée, quel que soit l'endroit où elle se trouve. Ainsi, une mesure effectuée à Pékin pourrait sembler affecter instantanément une expérience menée à Brooklyn, violant apparemment l'édit d'Einstein selon lequel aucune influence ne peut voyager plus vite que la lumière.

Einstein n'appréciait pas la portée de l'intrication (qu'il qualifiera plus tard d'"étrange") et critiqua la théorie de la mécanique quantique, alors naissante, comme étant nécessairement incomplète. Schrödinger défendit à son tour la théorie, dont il avait été l'un des pionniers. Mais il comprenait le dégoût d'Einstein pour l'intrication. Il admit que la façon dont elle semble permettre à un expérimentateur de "piloter" une expérience autrement inaccessible est "plutôt gênante".

Depuis, les physiciens se sont largement débarrassés de cette gêne. Ils comprennent aujourd'hui ce qu'Einstein, et peut-être Schrödinger lui-même, avaient négligé : l'intrication n'a pas d'influence à distance. Elle n'a pas le pouvoir de provoquer un résultat spécifique à distance ; elle ne peut distribuer que la connaissance de ce résultat. Les expériences sur l'intrication, telles que celles qui ont remporté le prix Nobel en 2022, sont maintenant devenues monnaie courante.

Au cours des dernières années, une multitude de recherches théoriques et expérimentales ont permis de découvrir une nouvelle facette du phénomène, qui se manifeste non pas par paires, mais par constellations de particules. L'intrication se propage naturellement dans un groupe de particules, établissant un réseau complexe de contingences. Mais si l'on mesure les particules suffisamment souvent, en détruisant l'intrication au passage, il est possible d'empêcher la formation du réseau. En 2018, trois groupes de théoriciens ont montré que ces deux états - réseau ou absence de réseau - rappellent des états familiers de la matière tels que le liquide et le solide. Mais au lieu de marquer une transition entre différentes structures de la matière, le passage entre la toile et l'absence de toile indique un changement dans la structure de l'information.

"Il s'agit d'une transition de phase dans l'information", explique Brian Skinner, de l'université de l'État de l'Ohio, l'un des physiciens qui a identifié le phénomène en premier. "Les propriétés de l'information, c'est-à-dire la manière dont l'information est partagée entre les choses, subissent un changement très brutal.

Plus récemment, un autre trio d'équipes a tenté d'observer cette transition de phase en action. Elles ont réalisé une série de méta-expériences pour mesurer comment les mesures elles-mêmes affectent le flux d'informations. Dans ces expériences, ils ont utilisé des ordinateurs quantiques pour confirmer qu'il est possible d'atteindre un équilibre délicat entre les effets concurrents de l'intrication et de la mesure. La découverte de la transition a lancé une vague de recherches sur ce qui pourrait être possible lorsque l'intrication et la mesure entrent en collision.

L'intrication "peut avoir de nombreuses propriétés différentes, bien au-delà de ce que nous avions imaginé", a déclaré Jedediah Pixley, théoricien de la matière condensée à l'université Rutgers, qui a étudié les variations de la transition.

Un dessert enchevêtré

L'une des collaborations qui a permis de découvrir la transition d'intrication est née autour d'un pudding au caramel collant dans un restaurant d'Oxford, en Angleterre. En avril 2018, Skinner rendait visite à son ami Adam Nahum, un physicien qui travaille actuellement à l'École normale supérieure de Paris. Au fil d'une conversation tentaculaire, ils se sont retrouvés à débattre d'une question fondamentale concernant l'enchevêtrement et l'information.

Tout d'abord, un petit retour en arrière. Pour comprendre le lien entre l'intrication et l'information, imaginons une paire de particules, A et B, chacune dotée d'un spin qui peut être mesuré comme pointant vers le haut ou vers le bas. Chaque particule commence dans une superposition quantique de haut et de bas, ce qui signifie qu'une mesure produit un résultat aléatoire - soit vers le haut, soit vers le bas. Si les particules ne sont pas intriquées, les mesurer revient à jouer à pile ou face : Le fait d'obtenir pile ou face avec l'une ne vous dit rien sur ce qui se passera avec l'autre.

Mais si les particules sont intriquées, les deux résultats seront liés. Si vous trouvez que B pointe vers le haut, par exemple, une mesure de A indiquera qu'il pointe vers le bas. La paire partage une "opposition" qui ne réside pas dans l'un ou l'autre membre, mais entre eux - un soupçon de la non-localité qui a troublé Einstein et Schrödinger. L'une des conséquences de cette opposition est qu'en mesurant une seule particule, on en apprend plus sur l'autre. "La mesure de B m'a d'abord permis d'obtenir des informations sur A", a expliqué M. Skinner. "Cela réduit mon ignorance sur l'état de A."

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, tu mesurais certains spins ici et là ? Si tu les mesurais tous en permanence, l'intrication disparaîtrait de façon ennuyeuse. Mais si tu les mesures sporadiquement, par quelques spins seulement, quel phénomène sortira vainqueur ? L'intrication ou la mesure ?

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, on mesurait certains spins ici et là ? Les mesurer tous en permanence ferait disparaître toute l'intrication d'une manière ennuyeuse. Mais si on en mesure sporadiquement quelques spins seulement, quel phénomène sortirait vainqueur ? L'intrication ou la mesure ?

Skinner, répondit qu'il pensait que la mesure écraserait l'intrication. L'intrication se propage de manière léthargique d'un voisin à l'autre, de sorte qu'elle ne croît que de quelques particules à la fois. Mais une série de mesures pourrait toucher simultanément de nombreuses particules tout au long de la longue chaîne, étouffant ainsi l'intrication sur une multitude de sites. S'ils avaient envisagé cet étrange scénario, de nombreux physiciens auraient probablement convenu que l'intrication ne pouvait pas résister aux mesures.

"Selon Ehud Altman, physicien spécialiste de la matière condensée à l'université de Californie à Berkeley, "il y avait une sorte de folklore selon lequel les états très intriqués sont très fragiles".

Mais Nahum, qui réfléchit à cette question depuis l'année précédente, n'est pas de cet avis. Il imaginait que la chaîne s'étendait dans le futur, instant après instant, pour former une sorte de clôture à mailles losangées. Les nœuds étaient les particules, et les connexions entre elles représentaient les liens à travers lesquels l'enchevêtrement pouvait se former. Les mesures coupant les liens à des endroits aléatoires. Si l'on coupe suffisamment de maillons, la clôture s'écroule. L'intrication ne peut pas se propager. Mais jusque là, selon Nahum, même une clôture en lambeaux devrait permettre à l'intrication de se propager largement.

Nahum a réussi à transformer un problème concernant une occurrence quantique éphémère en une question concrète concernant une clôture à mailles losangées. Il se trouve qu'il s'agit d'un problème bien étudié dans certains cercles - la "grille de résistance vandalisée" - et que Skinner avait étudié lors de son premier cours de physique de premier cycle, lorsque son professeur l'avait présenté au cours d'une digression.

"C'est à ce moment-là que j'ai été vraiment enthousiasmé", a déclaré M. Skinner. "Il n'y a pas d'autre moyen de rendre un physicien plus heureux que de montrer qu'un problème qui semble difficile est en fait équivalent à un problème que l'on sait déjà résoudre."

Suivre l'enchevêtrement

Mais leurs plaisanteries au dessert n'étaient rien d'autre que des plaisanteries. Pour tester et développer rigoureusement ces idées, Skinner et Nahum ont joint leurs forces à celles d'un troisième collaborateur, Jonathan Ruhman, de l'université Bar-Ilan en Israël. L'équipe a simulé numériquement les effets de la coupe de maillons à différentes vitesses dans des clôtures à mailles losangées. Ils ont ensuite comparé ces simulations de réseaux classiques avec des simulations plus précises mais plus difficiles de particules quantiques réelles, afin de s'assurer que l'analogie était valable. Ils ont progressé lentement mais sûrement.

Puis, au cours de l'été 2018, ils ont appris qu'ils n'étaient pas les seuls à réfléchir aux mesures et à l'intrication.

Matthew Fisher, éminent physicien de la matière condensée à l'université de Californie à Santa Barbara, s'était demandé si l'intrication entre les molécules dans le cerveau pouvait jouer un rôle dans notre façon de penser. Dans le modèle que lui et ses collaborateurs étaient en train de développer, certaines molécules se lient occasionnellement d'une manière qui agit comme une mesure et tue l'intrication. Ensuite, les molécules liées changent de forme d'une manière qui pourrait créer un enchevêtrement. Fisher voulait savoir si l'intrication pouvait se développer sous la pression de mesures intermittentes - la même question que Nahum s'était posée.

"C'était nouveau", a déclaré M. Fisher. "Personne ne s'était penché sur cette question avant 2018.

Dans le cadre d'une coopération universitaire, les deux groupes ont coordonné leurs publications de recherche l'un avec l'autre et avec une troisième équipe étudiant le même problème, dirigée par Graeme Smith de l'université du Colorado, à Boulder.

"Nous avons tous travaillé en parallèle pour publier nos articles en même temps", a déclaré M. Skinner.

En août, les trois groupes ont dévoilé leurs résultats. L'équipe de Smith était initialement en désaccord avec les deux autres, qui soutenaient tous deux le raisonnement de Nahum inspiré de la clôture : Dans un premier temps, l'intrication a dépassé les taux de mesure modestes pour se répandre dans une chaîne de particules, ce qui a entraîné une entropie d'intrication élevée. Puis, lorsque les chercheurs ont augmenté les mesures au-delà d'un taux "critique", l'intrication s'est arrêtée - l'entropie d'intrication a chuté.

La transition semblait exister, mais il n'était pas évident pour tout le monde de comprendre où l'argument intuitif - selon lequel l'intrication de voisin à voisin devait être anéantie par les éclairs généralisés de la mesure - s'était trompé.

Dans les mois qui ont suivi, Altman et ses collaborateurs à Berkeley ont découvert une faille subtile dans le raisonnement. "On ne tient pas compte de la diffusion (spread) de l'information", a déclaré M. Altman.

Le groupe d'Altman a souligné que toutes les mesures ne sont pas très informatives, et donc très efficaces pour détruire l'intrication. En effet, les interactions aléatoires entre les particules de la chaîne ne se limitent pas à l'enchevêtrement. Elles compliquent également considérablement l'état de la chaîne au fil du temps, diffusant effectivement ses informations "comme un nuage", a déclaré M. Altman. Au bout du compte, chaque particule connaît l'ensemble de la chaîne, mais la quantité d'informations dont elle dispose est minuscule. C'est pourquoi, a-t-il ajouté, "la quantité d'intrication que l'on peut détruire [à chaque mesure] est ridiculement faible".

En mars 2019, le groupe d'Altman a publié une prépublication détaillant comment la chaîne cachait efficacement les informations des mesures et permettait à une grande partie de l'intrication de la chaîne d'échapper à la destruction. À peu près au même moment, le groupe de Smith a mis à jour ses conclusions, mettant les quatre groupes d'accord.

La réponse à la question de Nahum était claire. Une "transition de phase induite par la mesure" était théoriquement possible. Mais contrairement à une transition de phase tangible, telle que le durcissement de l'eau en glace, il s'agissait d'une transition entre des phases d'information - une phase où l'information reste répartie en toute sécurité entre les particules et une phase où elle est détruite par des mesures répétées.

C'est en quelque sorte ce que l'on rêve de faire dans la matière condensée, a déclaré M. Skinner, à savoir trouver une transition entre différents états. "Maintenant, on se demande comment on le voit", a-t-il poursuivi.

 Au cours des quatre années suivantes, trois groupes d'expérimentateurs ont détecté des signes du flux distinct d'informations.

Trois façons de voir l'invisible

Même l'expérience la plus simple permettant de détecter la transition intangible est extrêmement difficile. "D'un point de vue pratique, cela semble impossible", a déclaré M. Altman.

L'objectif est de définir un certain taux de mesure (rare, moyen ou fréquent), de laisser ces mesures se battre avec l'intrication pendant un certain temps et de voir quelle quantité d'entropie d'intrication vous obtenez dans l'état final. Ensuite, rincez et répétez avec d'autres taux de mesure et voyez comment la quantité d'intrication change. C'est un peu comme si l'on augmentait la température pour voir comment la structure d'un glaçon change.

Mais les mathématiques punitives de la prolifération exponentielle des possibilités rendent cette expérience presque impensablement difficile à réaliser.

L'entropie d'intrication n'est pas, à proprement parler, quelque chose que l'on peut observer. C'est un nombre que l'on déduit par la répétition, de la même manière que l'on peut éventuellement déterminer la pondération d'un dé chargé. Lancer un seul 3 ne vous apprend rien. Mais après avoir lancé le dé des centaines de fois, vous pouvez connaître la probabilité d'obtenir chaque chiffre. De même, le fait qu'une particule pointe vers le haut et une autre vers le bas ne signifie pas qu'elles sont intriquées. Il faudrait obtenir le résultat inverse plusieurs fois pour en être sûr.

Il est beaucoup plus difficile de déduire l'entropie d'intrication d'une chaîne de particules mesurées. L'état final de la chaîne dépend de son histoire expérimentale, c'est-à-dire du fait que chaque mesure intermédiaire a abouti à une rotation vers le haut ou vers le bas. Pour accumuler plusieurs copies du même état, l'expérimentateur doit donc répéter l'expérience encore et encore jusqu'à ce qu'il obtienne la même séquence de mesures intermédiaires, un peu comme s'il jouait à pile ou face jusqu'à ce qu'il obtienne une série de "têtes" d'affilée. Chaque mesure supplémentaire rend l'effort deux fois plus difficile. Si vous effectuez 10 mesures lors de la préparation d'une chaîne de particules, par exemple, vous devrez effectuer 210 ou 1 024 expériences supplémentaires pour obtenir le même état final une deuxième fois (et vous pourriez avoir besoin de 1 000 copies supplémentaires de cet état pour déterminer son entropie d'enchevêtrement). Il faudra ensuite modifier le taux de mesure et recommencer.

L'extrême difficulté à détecter la transition de phase a amené certains physiciens à se demander si elle était réellement réelle.

"Vous vous fiez à quelque chose d'exponentiellement improbable pour le voir", a déclaré Crystal Noel, physicienne à l'université Duke. "Cela soulève donc la question de savoir ce que cela signifie physiquement."

Noel a passé près de deux ans à réfléchir aux phases induites par les mesures. Elle faisait partie d'une équipe travaillant sur un nouvel ordinateur quantique à ions piégés à l'université du Maryland. Le processeur contenait des qubits, des objets quantiques qui agissent comme des particules. Ils peuvent être programmés pour créer un enchevêtrement par le biais d'interactions aléatoires. Et l'appareil pouvait mesurer ses qubits.

Le groupe a également eu recours à une deuxième astuce pour réduire le nombre de répétitions - une procédure technique qui revient à simuler numériquement l'expérience parallèlement à sa réalisation. Ils savaient ainsi à quoi s'attendre. C'était comme si on leur disait à l'avance comment le dé chargé était pondéré, et cela a permis de réduire le nombre de répétitions nécessaires pour mettre au point la structure invisible de l'enchevêtrement.

Grâce à ces deux astuces, ils ont pu détecter la transition d'intrication dans des chaînes de 13 qubits et ont publié leurs résultats à l'été 2021.

"Nous avons été stupéfaits", a déclaré M. Nahum. "Je ne pensais pas que cela se produirait aussi rapidement."

À l'insu de Nahum et de Noel, une exécution complète de la version originale de l'expérience, exponentiellement plus difficile, était déjà en cours.

À la même époque, IBM venait de mettre à niveau ses ordinateurs quantiques, ce qui leur permettait d'effectuer des mesures relativement rapides et fiables des qubits à la volée. Jin Ming Koh, étudiant de premier cycle à l'Institut de technologie de Californie, avait fait une présentation interne aux chercheurs d'IBM et les avait convaincus de participer à un projet visant à repousser les limites de cette nouvelle fonctionnalité. Sous la supervision d'Austin Minnich, physicien appliqué au Caltech, l'équipe a entrepris de détecter directement la transition de phase dans un effort que Skinner qualifie d'"héroïque".

 Après avoir demandé conseil à l'équipe de Noel, le groupe a simplement lancé les dés métaphoriques un nombre suffisant de fois pour déterminer la structure d'intrication de chaque historique de mesure possible pour des chaînes comptant jusqu'à 14 qubits. Ils ont constaté que lorsque les mesures étaient rares, l'entropie d'intrication doublait lorsqu'ils doublaient le nombre de qubits - une signature claire de l'intrication qui remplit la chaîne. Les chaînes les plus longues (qui impliquaient davantage de mesures) ont nécessité plus de 1,5 million d'exécutions sur les appareils d'IBM et, au total, les processeurs de l'entreprise ont fonctionné pendant sept mois. Il s'agit de l'une des tâches les plus intensives en termes de calcul jamais réalisées à l'aide d'ordinateurs quantiques.

Le groupe de M. Minnich a publié sa réalisation des deux phases en mars 2022, ce qui a permis de dissiper tous les doutes qui subsistaient quant à la possibilité de mesurer le phénomène.

"Ils ont vraiment procédé par force brute", a déclaré M. Noel, et ont prouvé que "pour les systèmes de petite taille, c'est faisable".

Récemment, une équipe de physiciens a collaboré avec Google pour aller encore plus loin, en étudiant l'équivalent d'une chaîne presque deux fois plus longue que les deux précédentes. Vedika Khemani, de l'université de Stanford, et Matteo Ippoliti, aujourd'hui à l'université du Texas à Austin, avaient déjà utilisé le processeur quantique de Google en 2021 pour créer un cristal de temps, qui, comme les phases de propagation de l'intrication, est une phase exotique existant dans un système changeant.

En collaboration avec une vaste équipe de chercheurs, le duo a repris les deux astuces mises au point par le groupe de Noel et y a ajouté un nouvel ingrédient : le temps. L'équation de Schrödinger relie le passé d'une particule à son avenir, mais la mesure rompt ce lien. Ou, comme le dit Khemani, "une fois que l'on introduit des mesures dans un système, cette flèche du temps est complètement détruite".

Sans flèche du temps claire, le groupe a pu réorienter la clôture à mailles losangiques de Nahum pour accéder à différents qubits à différents moments, ce qu'ils ont utilisé de manière avantageuse. Ils ont notamment découvert une transition de phase dans un système équivalent à une chaîne d'environ 24 qubits, qu'ils ont décrite dans un article publié en mars.

Puissance de la mesure

Le débat de Skinner et Nahum sur le pudding, ainsi que les travaux de Fisher et Smith, ont donné naissance à un nouveau sous-domaine parmi les physiciens qui s'intéressent à la mesure, à l'information et à l'enchevêtrement. Au cœur de ces différentes lignes de recherche se trouve une prise de conscience croissante du fait que les mesures ne se contentent pas de recueillir des informations. Ce sont des événements physiques qui peuvent générer des phénomènes véritablement nouveaux.

"Les mesures ne sont pas un sujet auquel les physiciens de la matière condensée ont pensé historiquement", a déclaré M. Fisher. Nous effectuons des mesures pour recueillir des informations à la fin d'une expérience, a-t-il poursuivi, mais pas pour manipuler un système.

En particulier, les mesures peuvent produire des résultats inhabituels parce qu'elles peuvent avoir le même type de saveur "partout-tout-enmême-temps" qui a autrefois troublé Einstein. Au moment de la mesure, les possibilités alternatives contenues dans l'état quantique s'évanouissent, pour ne jamais se réaliser, y compris celles qui concernent des endroits très éloignés dans l'univers. Si la non-localité de la mécanique quantique ne permet pas des transmissions plus rapides que la lumière comme le craignait Einstein, elle permet d'autres exploits surprenants.

"Les gens sont intrigués par le type de nouveaux phénomènes collectifs qui peuvent être induits par ces effets non locaux des mesures", a déclaré M. Altman.

L'enchevêtrement d'une collection de nombreuses particules, par exemple, a longtemps été considéré comme nécessitant au moins autant d'étapes que le nombre de particules que l'on souhaitait enchevêtrer. Mais l'hiver dernier, des théoriciens ont décrit un moyen d'y parvenir en beaucoup moins d'étapes grâce à des mesures judicieuses. Au début de l'année, le même groupe a mis l'idée en pratique et façonné une tapisserie d'enchevêtrement abritant des particules légendaires qui se souviennent de leur passé. D'autres équipes étudient d'autres façons d'utiliser les mesures pour renforcer les états intriqués de la matière quantique.

Cette explosion d'intérêt a complètement surpris Skinner, qui s'est récemment rendu à Pékin pour recevoir un prix pour ses travaux dans le Grand Hall du Peuple sur la place Tiananmen. (Skinner avait d'abord cru que la question de Nahum n'était qu'un exercice mental, mais aujourd'hui, il n'est plus très sûr de la direction que tout cela prend.)

"Je pensais qu'il s'agissait d'un jeu amusant auquel nous jouions, mais je ne suis plus prêt à parier sur l'idée qu'il n'est pas utile."

Auteur: Internet

Info: Quanta Magazine, Paul Chaikin, sept 2023

[ passage inversant ] [ esprit-matière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel