Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 19
Temps de recherche: 0.0415s

éloignement

Les grandes inventions de la communication se contentent de surmonter les distances réellement grandes. Elles négligent les petites. Pour la distance qui sépare Vienne de Wiener Neustadt, les avions à réaction ne valent pas la peine. Conséquence : la faible distance reste aussi grande qu'elle l'était auparavant. Non, celle-ci devient même maintenant plus grande parce qu'elle doit être mesurées aux grandes distances rétrécies par les moyens techniques. Plus d'une fois il m'est arrivé ici à Vienne de recevoir en même temps des lettres qui avaient été postées le même jour à New York et à Wiener Neustadt. Cela ne signifie pas que New York est désormais aussi proche que Wiener Neustadt mais que Wiener Neustadt est désormais aussi loin que New York.

Auteur: Anders Günther Stern

Info: Sténogrammes philosophiques

[ relatif ] [ progrès ]

 

Commentaires: 0

topologie

Un lignée (lineate) est une Magnitude plus que longue. Une nouvelle forme de doctrine a forcé notre auteur à souvent utiliser de nouveaux mots, surtout pour séparer, que les lois logiques et les règles d'une division soient plus parfaite par dichotomie, c'est-à-dire en deux sortes, pour être tenues et observées. C'est pourquoi une Magnitude a été divisée en deux sortes, à savoir une Ligne et une Lignée (lineate) : Et une lignée est fait le genre d'une surface et un corps. Jusqu'à présent, une ligne, qui est la première et la plus simple de toutes les grandeurs, a été décrite : Maintenant, suivez une lignée (Lineate), l'autre type de grandeur opposée comme vous voyez à une ligne, suivez ensuite dans l'ordre. Lineatum est donc un Lineate, ou Lineamentum, ou Lineamentum, un Lineament, (comme par l'autorité de notre auteur lui-même, le savant Bernhard Salignacus, qui était son élève, l'a corrigé) est cette grandeur dans laquelle il existe des lignes : Ou qui est faite de lignes, ou qui est plus que longue : Par conséquent, les lignes peuvent être tracées sur une surface, qui est le griffonnage appropriée ou des parcelles de lignes ; elles peuvent aussi être tracées dans un corps, comme le Diamètre dans un Prisma : l'axe dans une sphère ; et généralement toutes les lignes tombent d’en-haut : Et c'est pour cela que Proclus fait des lignes simples, d'autres pleines. Ainsi, les lignes de Conicall, comme l'ellipse, l'hyperbole et la parabole, sont appelées lignes pleines parce qu'elles proviennent de la coupe d'un corps. 2. A un Linéate appartiennent un Angle et une Figure. Les affections communes d'une magnitude devaient être délimitées, coupées, mesurées conjointement et prescrites : Puis pour qu'une ligne soit correcte, tordue, retouchée,

Auteur: Petrus Ramus Pierre de La Ramée

Info: la voie de la géométrie

[ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

source

Energie du vide.

Les physiciens pensent désormais qu'il existe une force sous-jacente qui remplit tout l'espace. Ils l'ont appelée "énergie du vide" et elle est plus que simplement omniprésente ; sa puissance est énorme. Les estimations de l'énergie contenue dans chaque petit morceau d'espace apparemment vide varient considérablement. Il est probable que l'espace à l'intérieur d'un pot de mayonnaise contienne suffisamment d'énergie pour faire bouillir instantanément l'océan Pacifique. (En réalité, les scientifiques n'en sont encore qu'aux premiers stades de la compréhension de cette énergie omniprésente. Il existe un écart inquiétant de 100 ordres de grandeur entre les prédictions théoriques de sa puissance et les valeurs mesurées à ce jour. Cet écart est connu sous le nom de "catastrophe du vide").

La solution la plus proche est de refroidir la matière au zéro absolu, à -459,67° Fahrenheit (-273,15° Celsius), où tout mouvement moléculaire s'arrête. Alors et seulement alors, les choses sont à parité avec cette puissance omniprésente. C'est pourquoi on l'appelle aussi l'énergie du point zéro.

L'énergie du point zéro est donc présente lorsque toute autre énergie est absente. Pour que cette énergie de mousse quantique illimitée vous parvienne, il faut créer des conditions inférieures au zéro absolu. Cela signifie faire en sorte que les atomes se déplacent plus lentement qu'"à l'arrêt".

Le cosmos est imprégné d'une énergie qui fait paraître les simples ondes lumineuses et les champs électriques qui nous entourent, en comparaison, comme des simulacres de mauviettes. Cela signifie que cette essence d'Être - cette Nature de toutes choses, ce véritable Soi derrière la conscience et la vie elle-même, ce vide apparent qui semble être la matrice, le chevalet, la toile de fond de toutes nos mésaventures humaines - est une entité incroyablement puissante. Son énergie est inimaginable. Son potentiel illimité. Le fait que nous ne voyions et ne ressentions rien de tout cela ne signifie rien ; nos sens sont architecturalement construits pour percevoir ce qui est utile dans notre vie quotidienne. À quoi servirait-il de percevoir cette source ultra-énergie aveuglante qui imprègne chaque crevasse de la réalité ?

Auteur: Lanza Robert

Info: Beyond biocentrism

[ monde épiphénomène ] [ pré priméité ] [ question ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Elisa Vianello, chercheuse au CEA et coordinatrice du programme Edge AI, a reçu une subvention de 3 millions d'euros du Conseil européen de la recherche (ERC) dans le but de développer des dispositifs de mémoire sur silicium à l'échelle nanométrique inspirés du système nerveux des insectes. Un des objectifs de ce projet ambitieux est la mise au point de la toute première puce intelligente associée à un module neuronal local capable de traiter les données sensorielles en temps réel. Cette innovation trouve des applications dans la robotique grand public, les puces implantables pour le diagnostic médical et l'électronique portable.

La communauté de l'intelligence artificielle (IA) a récemment proposé de puissants algorithmes qui devraient permettre aux machines d'apprendre par l'expérience et d'interagir de manière autonome avec leur environnement. 

Toutefois, pour concrétiser cette ambition, des nanosystèmes dotés d'architectures de pointe de moins en moins énergivores, et dont la mémoire devra être à très haute densité, à haute résolution et dotée d’une endurance illimitée, doivent être mis en place. Si cette capacité n'existe pas encore aujourd'hui, le projet d’Elisa Vianello pourrait en ouvrir la voie : elle a découvert que différentes fonctions du système nerveux de l'insecte ressemblent étroitement aux fonctions assurées par les mémoires déterministes, probabilistes, volatiles et non volatiles.

"Comme la mémoire idéale n'existe pas aujourd'hui, le projet vise à construire une synapse hybride qui intègre différentes technologies de mémoire." Elle précise pour ce faire, s’être appuyée sur les grillons qui pour échapper à leurs prédateurs, "prennent des décisions justes à partir de données peu fiables, imprécises et lentes envoyées par leurs neurones et synapses. En examinant de près leur structure biologique, nous avons identifié une diversité de fonctions de type mémoire impliquées dans leurs systèmes sensoriels et nerveux. En combinant ces différentes fonctions, le système de traitement interne du criquet parvient à atteindre des performances remarquables et efficaces energétiquement." 

Elisa et son équipe fabriqueront des réseaux de dispositifs de mémoires physiques à l'échelle nanométrique avec l’objectif de traduire les principes biologiques des insectes en principes physiques. Ceci permettra l’apprentissage à partir d'un volume très limité de données bruitées, telles que les données mesurées en temps réel par différents capteurs (caméras, radars, capteurs cardiaques (ECG), capteurs musculaires (EMG), flux de bio-impédance et potentiellement aussi de signaux cérébraux par le biais de capteurs EEG et de sondes neuronales). 

"Les travaux d'Elisa permettront d’ouvrir de nouvelles perspectives de recherche vers des projets d’intelligence embarquée moins énergivore et capable d'apprendre en ligne", a déclaré Jean-René Lequepeys, directeur adjoint et technique du CEA-Leti, laboratoire duquel dépend Elisa Vianello. "Il s'agit d'une véritable rupture technologique et applicative qui combinera les derniers développements de la microélectronique en utilisant de nouvelles générations de mémoires non volatiles et en s'inspirant du monde vivant. Ce travail de recherche s'inscrit pleinement dans les priorités de l'institut et ouvrira de belles perspectives de premières mondiales et de commercialisation."

Auteur: Internet

Info: Sur http:wwwcea. Fr, Mars 2022. Elle obtient une bourse pour développer des mémoires à l'échelle nanométrique inspirées du système nerveux des insectes

[ épigénétique ] [ logique floue ] [ homme-animal ] [ heuristique ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

L'esprit pourrait affecter les machines selon les sexes
Pendant 26 ans, des conversations étranges ont eu lieu dans un laboratoire du sous-sol de l'université de Princeton. On utilise des ordinateurs au rendement aléatoire et les expériences font se concentrer des participants sur le contrôle d'une ou de plusieurs machines. Après plusieurs million d'épreuves on peut détecter de petits signes "statistiquement significatifs" comme quoi les esprits semblent pouvoir agir sur les machines. Cependant les chercheurs font attention à ne pas annoncer que les esprits ont cet effet ou qu'ils connaissent la nature de cette communication.
Les services secrets, la défense et les agences de l'espace ont également montré de l'intérêt pour cette recherche. Le premier support que les chercheurs ont employé était un bruit aléatoire à haute fréquence. Les chercheurs ont branché des circuits au dispositif pour traduire ce bruit en code binaire. Chaque participant, après un protocole pré-enregistré, devait développer une intention dans son esprit pour faire que le générateur ait plus ou moins de zéros. Les effets furent faibles mais mesurables. Depuis les mêmes résultats se sont reproduits avec d'autres expériences, telles qu'en impliquant un pendule relié à un mécanisme commandé par ordinateur. Quand la machine libère le pendule pour qu'il se balance, les participants se concentrent sur modifier le taux avec lequel le pendule ralentit. D'autres expériences impliquent une machine à tambour que les participants essayent de commander et une machine de cascade mécanique dans laquelle un dispositif laisse tomber des milliers de petites boules noires de polystyrène, le but est que ces boules tombent dans une rangée de fentes. Les participants essayent alors de les diriger pour les faire tomber d'un côté de ou de l'autre. Au final les participants ont pu "diriger " un bit sur 10.000 issus des données mesurées dans tous les essais. Ce qui pourrait sembler petit, mais le doyen Radin, scientifique à l'institut des sciences de Noetic et ancien chercheur aux laboratoires Bell et de AT&T, dit que c'était prévisible. Radin compare l'état actuel de cette recherche avec celui où les scientifiques commencèrent à étudier l'électricité statique et ne surent pas, au début, que les niveaux d'humidité pouvaient affecter la quantité de l'électricité statique produite.
Les chercheurs ne comprennent pas grand-chose sur ce phénomène, mais ils savent que les résultats ne sont pas affectés par la distance ou le temps. Les participants, par exemple, peuvent avoir le même impact sur une machine de l'extérieur de la salle ou d'ailleurs dans le pays. Ils peuvent également avoir le même effet s'ils ont une intention avant qu'elle soit allumée ou même s'ils lisent un livre ou écoutent la musique tandis alors que la machine fonctionne. Les conditions environnementales - telles que la température ambiante - n'importent pas, mais l'humeur et l'attitude des gens qui contrôlent l'appareil oui. Cela aide, si par exemple le participant croit qu'il peut affecter la machine. Jahn dit que la résonance avec la machine est un autre facteur important. Il la compare à ce qui se produit quand un grand musicien semble faire un avec son violon. Le sexe importe aussi. Les hommes tendent à obtenir des résultats assortis à leurs intentions, bien que le degré de l'effet soit souvent petit. Les femmes tendent à obtenir un plus grand effet, mais pas nécessairement celui qu'elles prévoient. Par exemple, elles voudraient diriger des boules dans la machine aléatoire de cascade pour une chute vers la gauche, mais elles tombent plutôt vers la droite. Les résultats qui sont également plus grands si un mâle et une femelle travaillent ensemble, les couple de même sexe ne produisent aucun résultat significatif. Les couple de sexe opposé qui sont impliqué de manière romantique donnent de bien meilleurs résultats - souvent sept fois plus grands que quand les mêmes individus sont examinés seuls.
Brenda Dunne, psychologue développementaliste et directrice du laboratoire dit que dans ces cas les résultats reflètent souvent le styles des deux modèles de sexes. Les effets sont plus grands, en accord avec ce que seule la femelle tendrait à produire, et plus ciblés, en accord avec ce que seul le mâle produirait.
"C'est presque comme si il y avait deux modèles ou deux variables et qu'elles étaient complémentaires" dit Dunne." le modèle masculin est associé à l'intention, le modèle féminin est plus associé à la résonance."
Que signifie tout ceci ? Personne ne le sait. Radin et Jahn indiquent que ce n'est pas parce qu'il y a une corrélation entre l'intention du participant et les actions de la machine que cela signifie qu'un cause l'autre. " Il y a une inférence (qui les deux sont connexes) mais aucune évidence directe" dit Radin qui indique que le phénomène pourrait être semblable à l'indétermination d'Heisenberg dans lequel deux particules séparées l'une de l'autre semblent être reliées sans qu'on sache comment... sous quelle forme de communication.
"la différence est nous ne parlons pas en envoyant des signaux du cerveau à la machine par un circuit" dit Jahn au sujet de ces essais. "quoi qu'il se passe, se passe par un itinéraire que nous ne connaissons pas. Nous savons seulement quelque chose au sujet des conditions qui la favorisent.." Bien que les effets produits dans ces expériences soient faibles, ils ont toujours été répétés, cependant pas toujours de façon prévisible. Un participant peut avoir un effet un jour et répéter l'expérience le jour suivant sans résultats.
Le laboratoire a beaucoup de détracteurs qui pointent sur des défauts de la méthode et écartent ce travail le traitant de divertissement, comparant ses résultats aux automobilistes qui souhaitent qu'une lumière rouge passe au vert et pensent que le changement de lumière est causé par eux.
Stanley Jeffers, professeur de physique à l'université d'York à Toronto, a tenté des expériences semblables, mais il ne put pas répliquer les résultats. Les chercheurs de deux laboratoires allemands, fonctionnant en coopération avec Pegg, ne purent également pas répliquer ces résultats à l'aide du même équipement utilisé par Pegg.
"Si leurs annonces veulent être prises au sérieux par la science elles doivent être répliquées" dit Jeffers. "Si elles ne peuvent pas être répliquées, cela ne signifie pas qu'elles sont fausses, mais la science y perdra rapidement son intérêt."
Dunne, psychologue développementaliste dit que Pegg a répété ses propres expériences et a obtenu des résultats significatifs. Et ces méta-analyses - une douzaine - faites depuis les années 80 ont donné une base pour les résultats de Pegg dans les expériences faites par d'autres chercheurs. La Méta-analyse utilise de grands stocks de données à travers de beaucoup d'expériences et les combine statistiquement pour voir si les effets répètent la même combinaison. "Nous analysons les déviations statistiques par rapport à la chance au travers de cette batterie d'expériences" dit Jahn... "quand on fait assez de ces expériences, les effets analysés ont un poids statistique. Il n'y a aucun doute sur la validité de ces effets."
Radin, qui n'est pas affilié au Pegg, écarte les critiques qui disent que ce groupe ne pratique pas de science solide. "Ce domaine a reçu bien plus d'examen minutieux et critique que beaucoup d'autres, ordinaires... les personnes qui font ce genre de recherche sont bien conscientes du fait que leur recherche doit être faite au mieux. Le laboratoire de Pegg a pris les meilleurs principes de science rigoureuse et s'est appliqué a des questions extrêmement difficiles et a proposé quelques jolies réponses intéressantes."
Jahn pense que les critiques s'attendent à ce que les phénomènes suivent les règles habituelles de la cause et de l'effet. Au lieu de cela, il pense qu'ils appartiennent à la catégorie de ce que Karl Jung a appelé "des phénomènes acausal," qui incluent des choses comme la synchronicité. "Cela se joue par des règles plus compliquées, plus lunatiques, évasives... ... mais cela joue." dit Jahn
Jeffers est sceptique " cela ne peut se passer de deux manières - dire qu'on est des scientifiques honorables et avoir des affirmations pour un effet particulier dans des conditions contrôlées, et ensuite quand les résultats ne marchent pas, dire que les méthodes scientifiques rigoureuses ne s'appliquent pas." Mais Jahn dit que justement que puisque que les scientifiques ne peuvent pas expliquer ces phénomènes cela ne signifie pas qu'ils ne sont pas vrais. "si ces choses existent... je pense que notre société a le droit de demander à la science d'y faire attention et de fournir un certain outillage pour avoir affaire avec de manière constructive.

Auteur: Zetter Kim

Info: Juillet 2005, Fortean Times

[ mâles-femelles ] [ vus-scientifiquement ] [ parapsychologie ] [ femmes-hommes ]

 

Commentaires: 0

mondialisation

Les erreurs de l'État impérial mondial et les erreurs des autres
On m'a fait remarquer que les bizarreries de la réconciliation sans vérité que j'ai rencontrées aux Philippines eu égard à l'importance persistante de la famille Marcos, malgré le discrédit généralisé de la période où elle était aux commandes (1965-1986), n'est pas aussi étrange qu'il y paraît.
Après tout, Jeb Bush a récemment annoncé son intention de briguer la présidence des États-Unis en 2016, et George W. Bush, malgré sa présidence déplorable, est considéré comme un atout politique. Il s'active à faire campagne et à récolter des fonds en faveur de son jeune frère. Aux Philippines, contrairement aux États-Unis, il y a eu une rupture politique provoquée par le mouvement Pouvoir du peuple, qui a écarté le clan Marcos du pouvoir et a porté directement à la présidence Corey Aquino, la veuve de Benigno Aquino Jr., l'opposant à Marcos assassiné. Même aujourd'hui, ce triomphe populiste est célébré comme un jour de fierté nationale pour le pays, et Benigno Noynoy Aquino III siège au palais de Malacañang comme le président élu du pays. Pourtant, les réalités politiques aux Philippines, comme aux États-Unis, sont plus connues pour leur continuité avec un passé discrédité que pour les changements qui rejettent et surmontent ce passé.
Barack Obama agissait dans un contexte politique certes différent aux États-Unis lorsqu'il a mis de côté les allégations bien fondées de criminalité adressées à l'équipe au pouvoir pendant la présidence de Bush, affirmant prudemment que le pays devait regarder vers l'avant et non derrière lorsqu'il s'agit de la responsabilité pénale de ses anciens dirigeants politiques. Bien sûr, c'est l'opposé de ce qui a été fait avec les dirigeants allemands et japonais survivants après la Deuxième Guerre mondiale avec les procès largement acclamés de Nuremberg et de Tokyo [ainsi qu'avec Saddam Hussein et Muammar Khadafi, NdT] ; et cela ne peut pas devenir la norme aux États-Unis par rapport aux crimes des gens ordinaires, ni même à l'égard des crimes louables des lanceurs d'alerte du genre de ceux attribués à Chelsea Manning, Julian Assange et Edward Snowden. Une telle impunité sélective semble être le prix que les démocraties impériales paient pour éviter la guerre civile dans le pays, et préférable à une unité obtenue par des formes autoritaires de gouvernement.
Pour cette seule raison, l'approche moralement régressive d'Obama de la responsabilité est politiquement compréhensible et prudente. L'Amérique est polarisée, et la partie la plus frustrée et la plus en colère des citoyens embrasse la culture de l'arme à feu et reste probablement ardemment en faveur de la sorte de militarisme et de ferveur patriotique qui avait été si fortement mise en avant pendant la présidence Bush.
Des pensées dans ce sens m'ont conduit à une série de réflexions plus larges. Les erreurs que font les Philippines, certes épouvantables en termes de droits humains, sont au moins principalement confinées dans les limites territoriales du pays et font des victimes parmi leurs propres citoyens. A titre de comparaison, les erreurs de politique étrangère commises par les États-Unis font des victimes principalement chez les autres, bien qu'ils en fassent souvent payer le prix, en même temps, aux Américains les plus marginaux et les plus vulnérables. Comme société, beaucoup regrettent les effets de la guerre au Vietnam ou de la guerre d'Irak sur la sérénité et l'estime de soi de la société américaine, mais en tant qu'Américains, nous ne faisons que rarement, sinon jamais, une pause pour déplorer les immenses pertes infligées à l'expérience sociétale qu'ont vécue ceux qui vivent sur ces lointains champs de bataille de l'ambition géopolitique. Ces sociétés victimes sont les récepteurs passifs de cette expérience destructrice, et possèdent rarement la capacité ou même la volonté politique de riposter. Telle est l'asymétrie des relations impériales.
On estime qu'entre 1,6 et 3,8 millions de Vietnamiens sont morts pendant la guerre du Vietnam en comparaison des 58 000 Américains. Des proportions similaires sont présentes dans les guerres d'Afghanistan et d'Irak, même sans considérer les perturbations et les destructions endurées. En Irak, depuis 2003, on estime qu'entre 600 000 et 1 millions d'Irakiens ont été tués et que plus de 2 millions ont été déplacés dans le pays, et que 500 000 Irakiens sont encore réfugiés en raison de la guerre, tandis que les États-Unis ont perdu quelque chose comme 4 500 membres de leur personnel combattant. Les statistiques du champ de bataille ne doivent pas nous aveugler sur le caractère absolu de chaque décès du point de vue de leurs proches, mais elles révèlent une dimension centrale de la distribution des coûts humains relatifs de la guerre entre un gouvernement qui intervient et la société cible. Ce calcul de la mort au combat commence à raconter l'histoire de la dévastation d'une société étrangère : les dangers résiduels qui peuvent se matérialiser dans la mort et des blessures mutilantes longtemps après que les armes se sont tues, à cause des munitions létales non explosées qui tapissent le pays pour des générations, la contamination du sol par l'agent Orange et les ogives contenant de l'uranium appauvri, sans oublier les traumatismes et les nombreux rappels quotidiens de souvenirs de guerre sous la forme des paysages dévastés et des sites culturels détruits laissés en héritage.
Selon presque tous les points de vue éthiques, il semblerait qu'une certaine conception de la responsabilité internationale devrait restreindre l'usage de la force dans des situations autres que celles autorisées par le droit international. Mais ce n'est pas la manière dont le monde fonctionne. Les erreurs et les actes répréhensibles qui se produisent dans une guerre étrangère lointaine sont rarement reconnus, ils ne sont jamais punis et jamais aucune compensation n'est offerte. Paradoxalement, seuls les dirigeants de ces territoires sont tenus de rendre des comptes (par exemple Saddam Hussein, Slobodan Milosevic et Mouammar Kadhafi). Le gouvernement des États-Unis, et plus précisément le Pentagone, a pour principe de dire au monde qu'il ne recueille aucune donnée sur les victimes civiles associées à ses opérations militaires internationales. En partie, il y a une attitude de déni, qui minimise les épreuves infligées aux pays étrangers et, pour une autre partie, il y a le baume d'une insistance officielle sous-jacente que les États-Unis font tous les efforts possibles pour éviter les victimes civiles. Dans le contexte des attaques de drones, Washington soutient avec insistance qu'il y a peu de victimes civiles, mesurées par le nombre de décès, mais n'admet jamais qu'il y a un nombre bien plus important de civils qui vivent ensuite dans la terreur intense et permanente d'être visés ou involontairement frappés à mort par un missile errant [pas errant pour tout le monde, malheureusement, NdT].
Compte tenu des structures étatiques et impériales de l'ordre mondial, il n'est pas surprenant que si peu d'attention soit portée à ces questions. Les erreurs d'un État impérial mondial ont des répercussions matérielles bien au-delà de leurs frontières, tandis que les erreurs d'un État normal résonnent à l'intérieur du pays comme dans une chambre d'écho. Les torts de ceux qui agissent pour l'État impérial mondial sont protégés des regards par l'impunité de fait liée à leur force, tandis que les torts de ceux qui agissent pour un État normal sont de de plus en plus sujets à des procédures judiciaires internationales. Lorsque c'est arrivé après la Deuxième Guerre mondiale, cela s'est appelé justice des vainqueurs ; lorsque cela arrive aujourd'hui, en particulier avec la jurisprudence borgne de la légalité libérale, c'est expliqué en référence à la prudence et au réalisme, à la nécessité d'être pragmatique, de faire ce qu'il est possible, d'accepter les limites, d'accorder un procès équitable à ceux qui sont accusés, de dissuader certaines tendances aux dérives dangereuses.
Cela ne changera pas jusqu'à ce que l'une de ces deux choses se produise : soit la mise en place d'une instance mondiale pour interpréter et appliquer le droit pénal [ce tribunal existe, le TPI, mais les US ont obtenu une dérogation pour eux-mêmes (sic!), NdT], soit une modification considérable de la conscience politique des États impériaux mondiaux par l'internalisation d'un ethos de responsabilité envers les sociétés étrangères et leurs habitants. Cette description des progrès nécessaires du droit et de la justice devrait nous faire prendre conscience à quel point de telles attentes restent utopiques.
Actuellement, il n'y a qu'un seul et unique État impérial mondial, les États-Unis d'Amérique. Certains suggèrent que les prouesses économiques de la Chine créent un centre rival de pouvoir et d'influence, qui pourrait être reconnu comme un second État impérial mondial. Cela semble erroné. La Chine peut être plus résiliente et elle est certainement moins militariste dans sa conception de la sécurité et de la poursuite de ses intérêts, mais elle n'est pas mondiale, ni ne mène de guerres lointaines. De plus, la langue, la monnaie et la culture chinoises ne jouissent pas de la portée mondiale de l'anglais, du dollar américain et du capitalisme franchisé. Indubitablement, la Chine est actuellement l'État le plus important dans le monde, mais sa réalité est en accord avec les idées du Traité de Wesphalie relatives à la souveraineté territoriale, tandis que les États-Unis opèrent mondialement dans toutes les régions pour consolider leur statut d'unique État impérial mondial. En effet, le premier État de ce type dans l'histoire du monde.

Auteur: Falk Richard

Info: 30 mars 2015, Source zcomm.org

[ USA ] [ géopolitique ]

 

Commentaires: 0

univers protonique

Forces tourbillonnantes et pressions d’écrasement mesurées dans le proton

Des expériences très attendues qui utilisent la lumière pour imiter la gravité révèlent pour la première fois la répartition des énergies, des forces et des pressions à l’intérieur d’une particule subatomique.

(Image : Les forces poussent dans un sens près du centre du proton et dans l’autre sens près de sa surface.)

Les physiciens ont commencé à explorer le proton comme s’il s’agissait d’une planète subatomique. Les cartes en coupe affichent de nouveaux détails de l'intérieur de la particule. Le noyau du proton présente des pressions plus intenses que dans toute autre forme connue de matière. À mi-chemin de la surface, des tourbillons de force s’affrontent les uns contre les autres. Et la " planète " dans son ensemble est plus petite que ne le suggéraient les expériences précédentes.

Les recherches expérimentales marquent la prochaine étape dans la quête visant à comprendre la particule qui ancre chaque atome et constitue la majeure partie de notre monde.

"Nous y voyons vraiment l'ouverture d'une direction complètement nouvelle qui changera notre façon de considérer la structure fondamentale de la matière", a déclaré Latifa Elouadrhiri , physicienne au Thomas Jefferson National Accelerator Facility à Newport News, en Virginie, qui participe à l'effort.

Les expériences jettent littéralement un nouvel éclairage sur le proton. Au fil des décennies, les chercheurs ont méticuleusement cartographié l’influence électromagnétique de la particule chargée positivement. Mais dans la nouvelle recherche, les physiciens du Jefferson Lab cartographient plutôt l'influence gravitationnelle du proton, à savoir la répartition des énergies, des pressions et des contraintes de cisaillement, qui courbent le tissu espace-temps dans et autour de la particule. Pour ce faire, les chercheurs exploitent une manière particulière par laquelle des paires de photons, des particules de lumière, peuvent imiter un graviton, la particule supposée qui transmet la force de gravité. En envoyant un ping au proton avec des photons, ils déduisent indirectement comment la gravité interagirait avec lui, réalisant ainsi un rêve vieux de plusieurs décennies consistant à interroger le proton de cette manière alternative.

"C'est un tour de force", a déclaré Cédric Lorcé , physicien à l'Ecole Polytechnique en France, qui n'a pas participé aux travaux. "Expérimentalement, c'est extrêmement compliqué." 

Des photons aux gravitons


Les physiciens ont appris énormément sur le proton au cours des 70 dernières années en le frappant à plusieurs reprises avec des électrons. Ils savent que sa charge électrique s’étend sur environ 0,8 femtomètre, ou quadrillionièmes de mètre, à partir de son centre. Ils savent que les électrons entrants ont tendance à être projetés sur l’un des trois quarks – des particules élémentaires avec des fractions de charge – qui bourdonnent à l’intérieur. Ils ont également observé la conséquence profondément étrange de la théorie quantique où, lors de collisions plus violentes, les électrons semblent rencontrer une mer mousseuse composée de bien plus de quarks ainsi que de gluons, porteurs de la force dite forte, qui colle les quarks ensemble.

Toutes ces informations proviennent d’une seule configuration : vous lancez un électron sur un proton, et les particules échangent un seul photon – le porteur de la force électromagnétique – et se repoussent. Cette interaction électromagnétique indique aux physiciens comment les quarks, en tant qu'objets chargés, ont tendance à s'organiser. Mais le proton a bien plus à offrir que sa charge électrique.

(Photo : Latifa Elouadrhiri, scientifique principale du laboratoire Jefferson, a dirigé la collecte de données à partir desquelles elle et ses collaborateurs calculent désormais les propriétés mécaniques du proton.) 

" Comment la matière et l'énergie sont-elles distribuées ? " a demandé Peter Schweitzer , physicien théoricien à l'Université du Connecticut. "Nous ne savons pas."

Schweitzer a passé la majeure partie de sa carrière à réfléchir au côté gravitationnel du proton. Plus précisément, il s'intéresse à une matrice de propriétés du proton appelée tenseur énergie-impulsion. " Le tenseur énergie-impulsion sait tout ce qu'il y a à savoir sur la particule ", a-t-il déclaré.

Dans la théorie de la relativité générale d'Albert Einstein, qui présente l'attraction gravitationnelle comme des objets suivant des courbes dans l'espace-temps, le tenseur énergie-impulsion indique à l'espace-temps comment se plier. Elle décrit, par exemple, la disposition de l'énergie (ou, de manière équivalente, de la masse) – la source de ce qui est la part du lion de la torsion de l'espace-temps. Elle permet également d'obtenir des informations sur la répartition de la dynamique, ainsi que sur les zones de compression ou d'expansion, ce qui peut également donner une légère courbure à l'espace-temps.

Si nous pouvions connaître la forme de l'espace-temps entourant un proton, élaborée indépendamment par des physiciens russes et   américains dans les années 1960, nous pourrions en déduire toutes les propriétés indexées dans son tenseur énergie-impulsion. Celles-ci incluent la masse et le spin du proton, qui sont déjà connus, ainsi que l'agencement des pressions et des forces du proton, une propriété collective que les physiciens nomment " Druck term ", d'après le mot " pression"  en allemand. Ce terme est " aussi important que la masse et la rotation, et personne ne sait ce que c'est ", a déclaré Schweitzer – même si cela commence à changer.

Dans les années 60, il semblait que la mesure du tenseur énergie-momentum et le calcul du terme de Druck nécessiteraient une version gravitationnelle de l'expérience de diffusion habituelle : On envoie une particule massive sur un proton et on laisse les deux s'échanger un graviton - la particule hypothétique qui constitue les ondes gravitationnelles - plutôt qu'un photon. Mais en raison de l'extrême subtilité de la gravité, les physiciens s'attendent à ce que la diffusion de gravitons se produise 39 fois plus rarement que la diffusion de photons. Les expériences ne peuvent pas détecter un effet aussi faible.

"Je me souviens avoir lu quelque chose à ce sujet quand j'étais étudiant", a déclaré Volker Burkert , membre de l'équipe du Jefferson Lab. Ce qu’il faut retenir, c’est que " nous ne pourrons probablement jamais rien apprendre sur les propriétés mécaniques des particules ".Gravitation sans gravité

Les expériences gravitationnelles sont encore inimaginables aujourd’hui. Mais les recherches menées en fin des années 1990 et au début des années 2000 par les physiciens Xiangdong Ji et, travaillant séparément, feu Maxim Polyakov, ont révélé une solution de contournement.

Le schéma général est le suivant. Lorsque vous tirez légèrement un électron sur un proton, il délivre généralement un photon à l'un des quarks et le détourne. Mais lors d’un événement sur un milliard, quelque chose de spécial se produit. L’électron entrant envoie un photon. Un quark l'absorbe puis émet un autre photon un battement de cœur plus tard. La principale différence est que cet événement rare implique deux photons au lieu d’un : des photons entrants et sortants. Les calculs de Ji et Polyakov ont montré que si les expérimentateurs pouvaient collecter les électrons, protons et photons résultants, ils pourraient déduire des énergies et des impulsions de ces particules ce qui s'est passé avec les deux photons. Et cette expérience à deux photons serait essentiellement aussi informative que l’impossible expérience de diffusion de gravitons.

Comment deux photons pourraient-ils connaître la gravité ? La réponse fait appel à des mathématiques très complexes. Mais les physiciens proposent deux façons de comprendre pourquoi cette astuce fonctionne.

Les photons sont des ondulations dans le champ électromagnétique, qui peuvent être décrites par une seule flèche, ou vecteur, à chaque emplacement de l'espace indiquant la valeur et la direction du champ. Les gravitons seraient des ondulations dans la géométrie de l’espace-temps, un domaine plus complexe représenté par une combinaison de deux vecteurs en chaque point. Capturer un graviton donnerait aux physiciens deux vecteurs d’informations. En dehors de cela, deux photons peuvent remplacer un graviton, puisqu’ils transportent également collectivement deux vecteurs d’information.

Une interprétation mathématiques alternative est celle-ci. Pendant le moment qui s'écoule entre le moment où un quark absorbe le premier photon et celui où il émet le second, le quark suit un chemin à travers l'espace. En sondant ce chemin, nous pouvons en apprendre davantage sur des propriétés telles que les pressions et les forces qui entourent le chemin.

"Nous ne faisons pas d'expérience gravitationnelle", a déclaré Lorcé. Mais " nous devrions obtenir un accès indirect à la manière dont un proton devrait interagir avec un graviton ". 

Sonder la planète Proton
En 2000, les physiciens du Jefferson Lab ont réussi à obtenir quelques résultats de diffusion à deux photons. Cette démonstration de faisabilité les a incités à construire une nouvelle expérience et, en 2007, ils ont fait entrer des électrons dans des protons suffisamment de fois pour obtenir environ 500 000 collisions imitant les gravitons. L'analyse des données expérimentales a pris une décennie de plus.

À partir de leur index des propriétés de flexion de l’espace-temps, l’équipe a extrait le terme insaisissable de Druck, publiant son estimation des pressions internes du proton dans Nature en 2018.

Ils ont découvert qu’au cœur du proton, la force puissante génère des pressions d’une intensité inimaginable : 100 milliards de milliards de milliards de pascals, soit environ 10 fois la pression au cœur d’une étoile à neutrons. Plus loin du centre, la pression chute et finit par se retourner vers l'intérieur, comme c'est nécessaire pour que le proton ne se brise pas. "Voilà qui résulte de l'expérience", a déclaré Burkert. "Oui, un proton est réellement stable." (Cette découverte n’a cependant aucune incidence sur la désintégration des protons , ce qui implique un type d’instabilité différent prédit par certaines théories spéculatives.)

Le groupe Jefferson Lab a continué à analyser le terme Druck. Ils ont publié une estimation des forces de cisaillement (forces internes poussant parallèlement à la surface du proton) dans le cadre d'une étude publiée en décembre. Les physiciens ont montré que près de son noyau, le proton subit une force de torsion qui est neutralisée par une torsion dans l’autre sens plus près de la surface. Ces mesures soulignent également la stabilité de la particule. Les rebondissements étaient attendus sur la base des travaux théoriques de Schweitzer et Polyakov. "Néanmoins, le voir émerger de l'expérience pour la première fois est vraiment stupéfiant", a déclaré Elouadrhiri.

Ils utilisent désormais ces outils pour calculer la taille du proton d'une nouvelle manière. Dans les expériences de diffusion traditionnelles, les physiciens avaient observé que la charge électrique de la particule s'étendait à environ 0,8 femtomètre de son centre (c'est-à-dire que les quarks qui la composent bourdonnent dans cette région). Mais ce " rayon de charge " présente quelques bizarreries. Dans le cas du neutron, par exemple — l'équivalent neutre du proton, dans lequel deux quarks chargés négativement ont tendance à rester profondément à l'intérieur de la particule tandis qu'un quark chargé positivement passe plus de temps près de la surface — le rayon de charge apparaît comme un nombre négatif.  "Cela ne veut pas dire que la taille est négative ; ce n'est tout simplement pas une mesure fiable ", a déclaré Schweitzer.

La nouvelle approche mesure la région de l’espace-temps considérablement courbée par le proton. Dans une prépublication qui n'a pas encore été évaluée par des pairs, l'équipe du Jefferson Lab a calculé que ce rayon pourrait être environ 25 % plus petit que le rayon de charge, soit seulement 0,6 femtomètre.

Les limites de la planète Proton

D'un point de vue conceptuel, ce type d'analyse adoucit la danse floue des quarks pour en faire un objet solide, semblable à une planète, avec des pressions et des forces agissant sur chaque point de volume. Cette planète gelée ne reflète pas entièrement le proton bouillonnant dans toute sa gloire quantique, mais c'est un modèle utile. "C'est une interprétation", a déclaré M. Schweitzer.

Et les physiciens soulignent que ces cartes initiales sont approximatives, pour plusieurs raisons.

Premièrement, mesurer avec précision le tenseur énergie-impulsion nécessiterait des énergies de collision beaucoup plus élevées que celles que Jefferson Lab peut produire. L’équipe a travaillé dur pour extrapoler soigneusement les tendances à partir des énergies relativement faibles auxquelles elles peuvent accéder, mais les physiciens ne sont toujours pas sûrs de la précision de ces extrapolations.

(Photo : Lorsqu'il était étudiant, Volker Burkert a lu qu'il était impossible de mesurer directement les propriétés gravitationnelles du proton. Aujourd'hui, il participe à une collaboration au laboratoire Jefferson qui est en train de découvrir indirectement ces mêmes propriétés.)

De plus, le proton est plus que ses quarks ; il contient également des gluons, qui se déplacent sous leurs propres pressions et forces. L'astuce à deux photons ne peut pas détecter les effets des gluons. Une autre équipe du Jefferson Lab a utilisé une astuce analogue ( impliquant une interaction double-gluon ) pour publier l'année dernière une carte gravitationnelle préliminaire de ces effets des gluons dans Nature, mais elle était également basée sur des données limitées et à faible énergie.

"C'est une première étape", a déclaré Yoshitaka Hatta, physicien au Brookhaven National Laboratory qui a eu l'idée de commencer à étudier le proton gravitationnel après les travaux du groupe Jefferson Lab en 2018.

Des cartes gravitationnelles plus précises des quarks du proton et de ses gluons pourraient être disponibles dans les années 2030, lorsque le collisionneur électron-ion, une expérience actuellement en construction à Brookhaven, entrera en activité.

Pendant ce temps, les physiciens poursuivent leurs expériences numériques. Phiala Shanahan, physicienne nucléaire et des particules au Massachusetts Institute of Technology, dirige une équipe qui calcule le comportement des quarks et des gluons à partir des équations de la force forte. En 2019, elle et ses collaborateurs ont estimé les pressions et les forces de cisaillement, et en octobre, en ont estimé le rayon, entre autres propriétés. Jusqu'à présent, leurs résultats numériques ont été largement alignés sur les résultats physiques du Jefferson Lab. "Je suis certainement très excitée par la cohérence entre les résultats expérimentaux récents et nos données", a déclaré Mme Shanahan.

Même les aperçus flous du proton obtenus jusqu'à présent ont légèrement remodelé la compréhension des chercheurs sur la particule.

Certaines conséquences sont pratiques. Au CERN, l'organisation européenne qui gère le Grand collisionneur de hadrons, le plus grand broyeur de protons au monde, les physiciens pensaient auparavant que dans certaines collisions rares, les quarks pouvaient se trouver n'importe où dans les protons en collision. Mais les cartes inspirées par la gravitation suggèrent que les quarks ont tendance à rester près du centre dans de tels cas.

"Les modèles utilisés au CERN ont déjà été mis à jour", a déclaré François-Xavier Girod, physicien du Jefferson Lab qui a travaillé sur les expériences.

Les nouvelles cartes pourraient également offrir des pistes pour résoudre l’un des mystères les plus profonds du proton : pourquoi les quarks se lient en protons. Il existe un argument intuitif selon lequel, comme la force puissante entre chaque paire de quarks s'intensifie à mesure qu'ils s'éloignent, comme un élastique, les quarks ne peuvent jamais échapper à leurs camarades.

Mais les protons sont fabriqués à partir des membres les plus légers de la famille des quarks. Et les quarks légers peuvent également être considérés comme de longues ondes s'étendant au-delà de la surface du proton. Cette image suggère que la liaison du proton pourrait se produire non pas via la traction interne de bandes élastiques, mais par une interaction externe entre ces quarks ondulés et étirés. La cartographie de pression montre l’attraction de la force forte s’étendant jusqu’à 1,4 femtomètres et au-delà, renforçant ainsi l’argument en faveur de ces théories alternatives.

"Ce n'est pas une réponse définitive", a déclaré Girod, "mais cela indique que ces simples images avec des bandes élastiques ne sont pas pertinentes pour les quarks légers."



Auteur: Internet

Info: https://filsdelapensee.ch - Charlie Bois, 14 mars 2024

[ chromodynamique quantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier cognitif

Des physiciens observent une transition de phase quantique "inobservable"

Mesure et l'intrication ont toutes deux une saveur non locale "étrange". Aujourd'hui, les physiciens exploitent cette nonlocalité pour sonder la diffusion de l'information quantique et la contrôler.

La mesure est l'ennemi de l'intrication. Alors que l'intrication se propage à travers une grille de particules quantiques - comme le montre cette simulation - que se passerait-il si l'on mesurait certaines des particules ici et là ? Quel phénomène triompherait ?

En 1935, Albert Einstein et Erwin Schrödinger, deux des physiciens les plus éminents de l'époque, se disputent sur la nature de la réalité.

Einstein avait fait des calculs et savait que l'univers devait être local, c'est-à-dire qu'aucun événement survenant à un endroit donné ne pouvait affecter instantanément un endroit éloigné. Mais Schrödinger avait fait ses propres calculs et savait qu'au cœur de la mécanique quantique se trouvait une étrange connexion qu'il baptisa "intrication" et qui semblait remettre en cause l'hypothèse de localité d'Einstein.

Lorsque deux particules sont intriquées, ce qui peut se produire lors d'une collision, leurs destins sont liés. En mesurant l'orientation d'une particule, par exemple, on peut apprendre que sa partenaire intriquée (si et quand elle est mesurée) pointe dans la direction opposée, quel que soit l'endroit où elle se trouve. Ainsi, une mesure effectuée à Pékin pourrait sembler affecter instantanément une expérience menée à Brooklyn, violant apparemment l'édit d'Einstein selon lequel aucune influence ne peut voyager plus vite que la lumière.

Einstein n'appréciait pas la portée de l'intrication (qu'il qualifiera plus tard d'"étrange") et critiqua la théorie de la mécanique quantique, alors naissante, comme étant nécessairement incomplète. Schrödinger défendit à son tour la théorie, dont il avait été l'un des pionniers. Mais il comprenait le dégoût d'Einstein pour l'intrication. Il admit que la façon dont elle semble permettre à un expérimentateur de "piloter" une expérience autrement inaccessible est "plutôt gênante".

Depuis, les physiciens se sont largement débarrassés de cette gêne. Ils comprennent aujourd'hui ce qu'Einstein, et peut-être Schrödinger lui-même, avaient négligé : l'intrication n'a pas d'influence à distance. Elle n'a pas le pouvoir de provoquer un résultat spécifique à distance ; elle ne peut distribuer que la connaissance de ce résultat. Les expériences sur l'intrication, telles que celles qui ont remporté le prix Nobel en 2022, sont maintenant devenues monnaie courante.

Au cours des dernières années, une multitude de recherches théoriques et expérimentales ont permis de découvrir une nouvelle facette du phénomène, qui se manifeste non pas par paires, mais par constellations de particules. L'intrication se propage naturellement dans un groupe de particules, établissant un réseau complexe de contingences. Mais si l'on mesure les particules suffisamment souvent, en détruisant l'intrication au passage, il est possible d'empêcher la formation du réseau. En 2018, trois groupes de théoriciens ont montré que ces deux états - réseau ou absence de réseau - rappellent des états familiers de la matière tels que le liquide et le solide. Mais au lieu de marquer une transition entre différentes structures de la matière, le passage entre la toile et l'absence de toile indique un changement dans la structure de l'information.

"Il s'agit d'une transition de phase dans l'information", explique Brian Skinner, de l'université de l'État de l'Ohio, l'un des physiciens qui a identifié le phénomène en premier. "Les propriétés de l'information, c'est-à-dire la manière dont l'information est partagée entre les choses, subissent un changement très brutal.

Plus récemment, un autre trio d'équipes a tenté d'observer cette transition de phase en action. Elles ont réalisé une série de méta-expériences pour mesurer comment les mesures elles-mêmes affectent le flux d'informations. Dans ces expériences, ils ont utilisé des ordinateurs quantiques pour confirmer qu'il est possible d'atteindre un équilibre délicat entre les effets concurrents de l'intrication et de la mesure. La découverte de la transition a lancé une vague de recherches sur ce qui pourrait être possible lorsque l'intrication et la mesure entrent en collision.

L'intrication "peut avoir de nombreuses propriétés différentes, bien au-delà de ce que nous avions imaginé", a déclaré Jedediah Pixley, théoricien de la matière condensée à l'université Rutgers, qui a étudié les variations de la transition.

Un dessert enchevêtré

L'une des collaborations qui a permis de découvrir la transition d'intrication est née autour d'un pudding au caramel collant dans un restaurant d'Oxford, en Angleterre. En avril 2018, Skinner rendait visite à son ami Adam Nahum, un physicien qui travaille actuellement à l'École normale supérieure de Paris. Au fil d'une conversation tentaculaire, ils se sont retrouvés à débattre d'une question fondamentale concernant l'enchevêtrement et l'information.

Tout d'abord, un petit retour en arrière. Pour comprendre le lien entre l'intrication et l'information, imaginons une paire de particules, A et B, chacune dotée d'un spin qui peut être mesuré comme pointant vers le haut ou vers le bas. Chaque particule commence dans une superposition quantique de haut et de bas, ce qui signifie qu'une mesure produit un résultat aléatoire - soit vers le haut, soit vers le bas. Si les particules ne sont pas intriquées, les mesurer revient à jouer à pile ou face : Le fait d'obtenir pile ou face avec l'une ne vous dit rien sur ce qui se passera avec l'autre.

Mais si les particules sont intriquées, les deux résultats seront liés. Si vous trouvez que B pointe vers le haut, par exemple, une mesure de A indiquera qu'il pointe vers le bas. La paire partage une "opposition" qui ne réside pas dans l'un ou l'autre membre, mais entre eux - un soupçon de la non-localité qui a troublé Einstein et Schrödinger. L'une des conséquences de cette opposition est qu'en mesurant une seule particule, on en apprend plus sur l'autre. "La mesure de B m'a d'abord permis d'obtenir des informations sur A", a expliqué M. Skinner. "Cela réduit mon ignorance sur l'état de A."

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, tu mesurais certains spins ici et là ? Si tu les mesurais tous en permanence, l'intrication disparaîtrait de façon ennuyeuse. Mais si tu les mesures sporadiquement, par quelques spins seulement, quel phénomène sortira vainqueur ? L'intrication ou la mesure ?

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, on mesurait certains spins ici et là ? Les mesurer tous en permanence ferait disparaître toute l'intrication d'une manière ennuyeuse. Mais si on en mesure sporadiquement quelques spins seulement, quel phénomène sortirait vainqueur ? L'intrication ou la mesure ?

Skinner, répondit qu'il pensait que la mesure écraserait l'intrication. L'intrication se propage de manière léthargique d'un voisin à l'autre, de sorte qu'elle ne croît que de quelques particules à la fois. Mais une série de mesures pourrait toucher simultanément de nombreuses particules tout au long de la longue chaîne, étouffant ainsi l'intrication sur une multitude de sites. S'ils avaient envisagé cet étrange scénario, de nombreux physiciens auraient probablement convenu que l'intrication ne pouvait pas résister aux mesures.

"Selon Ehud Altman, physicien spécialiste de la matière condensée à l'université de Californie à Berkeley, "il y avait une sorte de folklore selon lequel les états très intriqués sont très fragiles".

Mais Nahum, qui réfléchit à cette question depuis l'année précédente, n'est pas de cet avis. Il imaginait que la chaîne s'étendait dans le futur, instant après instant, pour former une sorte de clôture à mailles losangées. Les nœuds étaient les particules, et les connexions entre elles représentaient les liens à travers lesquels l'enchevêtrement pouvait se former. Les mesures coupant les liens à des endroits aléatoires. Si l'on coupe suffisamment de maillons, la clôture s'écroule. L'intrication ne peut pas se propager. Mais jusque là, selon Nahum, même une clôture en lambeaux devrait permettre à l'intrication de se propager largement.

Nahum a réussi à transformer un problème concernant une occurrence quantique éphémère en une question concrète concernant une clôture à mailles losangées. Il se trouve qu'il s'agit d'un problème bien étudié dans certains cercles - la "grille de résistance vandalisée" - et que Skinner avait étudié lors de son premier cours de physique de premier cycle, lorsque son professeur l'avait présenté au cours d'une digression.

"C'est à ce moment-là que j'ai été vraiment enthousiasmé", a déclaré M. Skinner. "Il n'y a pas d'autre moyen de rendre un physicien plus heureux que de montrer qu'un problème qui semble difficile est en fait équivalent à un problème que l'on sait déjà résoudre."

Suivre l'enchevêtrement

Mais leurs plaisanteries au dessert n'étaient rien d'autre que des plaisanteries. Pour tester et développer rigoureusement ces idées, Skinner et Nahum ont joint leurs forces à celles d'un troisième collaborateur, Jonathan Ruhman, de l'université Bar-Ilan en Israël. L'équipe a simulé numériquement les effets de la coupe de maillons à différentes vitesses dans des clôtures à mailles losangées. Ils ont ensuite comparé ces simulations de réseaux classiques avec des simulations plus précises mais plus difficiles de particules quantiques réelles, afin de s'assurer que l'analogie était valable. Ils ont progressé lentement mais sûrement.

Puis, au cours de l'été 2018, ils ont appris qu'ils n'étaient pas les seuls à réfléchir aux mesures et à l'intrication.

Matthew Fisher, éminent physicien de la matière condensée à l'université de Californie à Santa Barbara, s'était demandé si l'intrication entre les molécules dans le cerveau pouvait jouer un rôle dans notre façon de penser. Dans le modèle que lui et ses collaborateurs étaient en train de développer, certaines molécules se lient occasionnellement d'une manière qui agit comme une mesure et tue l'intrication. Ensuite, les molécules liées changent de forme d'une manière qui pourrait créer un enchevêtrement. Fisher voulait savoir si l'intrication pouvait se développer sous la pression de mesures intermittentes - la même question que Nahum s'était posée.

"C'était nouveau", a déclaré M. Fisher. "Personne ne s'était penché sur cette question avant 2018.

Dans le cadre d'une coopération universitaire, les deux groupes ont coordonné leurs publications de recherche l'un avec l'autre et avec une troisième équipe étudiant le même problème, dirigée par Graeme Smith de l'université du Colorado, à Boulder.

"Nous avons tous travaillé en parallèle pour publier nos articles en même temps", a déclaré M. Skinner.

En août, les trois groupes ont dévoilé leurs résultats. L'équipe de Smith était initialement en désaccord avec les deux autres, qui soutenaient tous deux le raisonnement de Nahum inspiré de la clôture : Dans un premier temps, l'intrication a dépassé les taux de mesure modestes pour se répandre dans une chaîne de particules, ce qui a entraîné une entropie d'intrication élevée. Puis, lorsque les chercheurs ont augmenté les mesures au-delà d'un taux "critique", l'intrication s'est arrêtée - l'entropie d'intrication a chuté.

La transition semblait exister, mais il n'était pas évident pour tout le monde de comprendre où l'argument intuitif - selon lequel l'intrication de voisin à voisin devait être anéantie par les éclairs généralisés de la mesure - s'était trompé.

Dans les mois qui ont suivi, Altman et ses collaborateurs à Berkeley ont découvert une faille subtile dans le raisonnement. "On ne tient pas compte de la diffusion (spread) de l'information", a déclaré M. Altman.

Le groupe d'Altman a souligné que toutes les mesures ne sont pas très informatives, et donc très efficaces pour détruire l'intrication. En effet, les interactions aléatoires entre les particules de la chaîne ne se limitent pas à l'enchevêtrement. Elles compliquent également considérablement l'état de la chaîne au fil du temps, diffusant effectivement ses informations "comme un nuage", a déclaré M. Altman. Au bout du compte, chaque particule connaît l'ensemble de la chaîne, mais la quantité d'informations dont elle dispose est minuscule. C'est pourquoi, a-t-il ajouté, "la quantité d'intrication que l'on peut détruire [à chaque mesure] est ridiculement faible".

En mars 2019, le groupe d'Altman a publié une prépublication détaillant comment la chaîne cachait efficacement les informations des mesures et permettait à une grande partie de l'intrication de la chaîne d'échapper à la destruction. À peu près au même moment, le groupe de Smith a mis à jour ses conclusions, mettant les quatre groupes d'accord.

La réponse à la question de Nahum était claire. Une "transition de phase induite par la mesure" était théoriquement possible. Mais contrairement à une transition de phase tangible, telle que le durcissement de l'eau en glace, il s'agissait d'une transition entre des phases d'information - une phase où l'information reste répartie en toute sécurité entre les particules et une phase où elle est détruite par des mesures répétées.

C'est en quelque sorte ce que l'on rêve de faire dans la matière condensée, a déclaré M. Skinner, à savoir trouver une transition entre différents états. "Maintenant, on se demande comment on le voit", a-t-il poursuivi.

 Au cours des quatre années suivantes, trois groupes d'expérimentateurs ont détecté des signes du flux distinct d'informations.

Trois façons de voir l'invisible

Même l'expérience la plus simple permettant de détecter la transition intangible est extrêmement difficile. "D'un point de vue pratique, cela semble impossible", a déclaré M. Altman.

L'objectif est de définir un certain taux de mesure (rare, moyen ou fréquent), de laisser ces mesures se battre avec l'intrication pendant un certain temps et de voir quelle quantité d'entropie d'intrication vous obtenez dans l'état final. Ensuite, rincez et répétez avec d'autres taux de mesure et voyez comment la quantité d'intrication change. C'est un peu comme si l'on augmentait la température pour voir comment la structure d'un glaçon change.

Mais les mathématiques punitives de la prolifération exponentielle des possibilités rendent cette expérience presque impensablement difficile à réaliser.

L'entropie d'intrication n'est pas, à proprement parler, quelque chose que l'on peut observer. C'est un nombre que l'on déduit par la répétition, de la même manière que l'on peut éventuellement déterminer la pondération d'un dé chargé. Lancer un seul 3 ne vous apprend rien. Mais après avoir lancé le dé des centaines de fois, vous pouvez connaître la probabilité d'obtenir chaque chiffre. De même, le fait qu'une particule pointe vers le haut et une autre vers le bas ne signifie pas qu'elles sont intriquées. Il faudrait obtenir le résultat inverse plusieurs fois pour en être sûr.

Il est beaucoup plus difficile de déduire l'entropie d'intrication d'une chaîne de particules mesurées. L'état final de la chaîne dépend de son histoire expérimentale, c'est-à-dire du fait que chaque mesure intermédiaire a abouti à une rotation vers le haut ou vers le bas. Pour accumuler plusieurs copies du même état, l'expérimentateur doit donc répéter l'expérience encore et encore jusqu'à ce qu'il obtienne la même séquence de mesures intermédiaires, un peu comme s'il jouait à pile ou face jusqu'à ce qu'il obtienne une série de "têtes" d'affilée. Chaque mesure supplémentaire rend l'effort deux fois plus difficile. Si vous effectuez 10 mesures lors de la préparation d'une chaîne de particules, par exemple, vous devrez effectuer 210 ou 1 024 expériences supplémentaires pour obtenir le même état final une deuxième fois (et vous pourriez avoir besoin de 1 000 copies supplémentaires de cet état pour déterminer son entropie d'enchevêtrement). Il faudra ensuite modifier le taux de mesure et recommencer.

L'extrême difficulté à détecter la transition de phase a amené certains physiciens à se demander si elle était réellement réelle.

"Vous vous fiez à quelque chose d'exponentiellement improbable pour le voir", a déclaré Crystal Noel, physicienne à l'université Duke. "Cela soulève donc la question de savoir ce que cela signifie physiquement."

Noel a passé près de deux ans à réfléchir aux phases induites par les mesures. Elle faisait partie d'une équipe travaillant sur un nouvel ordinateur quantique à ions piégés à l'université du Maryland. Le processeur contenait des qubits, des objets quantiques qui agissent comme des particules. Ils peuvent être programmés pour créer un enchevêtrement par le biais d'interactions aléatoires. Et l'appareil pouvait mesurer ses qubits.

Le groupe a également eu recours à une deuxième astuce pour réduire le nombre de répétitions - une procédure technique qui revient à simuler numériquement l'expérience parallèlement à sa réalisation. Ils savaient ainsi à quoi s'attendre. C'était comme si on leur disait à l'avance comment le dé chargé était pondéré, et cela a permis de réduire le nombre de répétitions nécessaires pour mettre au point la structure invisible de l'enchevêtrement.

Grâce à ces deux astuces, ils ont pu détecter la transition d'intrication dans des chaînes de 13 qubits et ont publié leurs résultats à l'été 2021.

"Nous avons été stupéfaits", a déclaré M. Nahum. "Je ne pensais pas que cela se produirait aussi rapidement."

À l'insu de Nahum et de Noel, une exécution complète de la version originale de l'expérience, exponentiellement plus difficile, était déjà en cours.

À la même époque, IBM venait de mettre à niveau ses ordinateurs quantiques, ce qui leur permettait d'effectuer des mesures relativement rapides et fiables des qubits à la volée. Jin Ming Koh, étudiant de premier cycle à l'Institut de technologie de Californie, avait fait une présentation interne aux chercheurs d'IBM et les avait convaincus de participer à un projet visant à repousser les limites de cette nouvelle fonctionnalité. Sous la supervision d'Austin Minnich, physicien appliqué au Caltech, l'équipe a entrepris de détecter directement la transition de phase dans un effort que Skinner qualifie d'"héroïque".

 Après avoir demandé conseil à l'équipe de Noel, le groupe a simplement lancé les dés métaphoriques un nombre suffisant de fois pour déterminer la structure d'intrication de chaque historique de mesure possible pour des chaînes comptant jusqu'à 14 qubits. Ils ont constaté que lorsque les mesures étaient rares, l'entropie d'intrication doublait lorsqu'ils doublaient le nombre de qubits - une signature claire de l'intrication qui remplit la chaîne. Les chaînes les plus longues (qui impliquaient davantage de mesures) ont nécessité plus de 1,5 million d'exécutions sur les appareils d'IBM et, au total, les processeurs de l'entreprise ont fonctionné pendant sept mois. Il s'agit de l'une des tâches les plus intensives en termes de calcul jamais réalisées à l'aide d'ordinateurs quantiques.

Le groupe de M. Minnich a publié sa réalisation des deux phases en mars 2022, ce qui a permis de dissiper tous les doutes qui subsistaient quant à la possibilité de mesurer le phénomène.

"Ils ont vraiment procédé par force brute", a déclaré M. Noel, et ont prouvé que "pour les systèmes de petite taille, c'est faisable".

Récemment, une équipe de physiciens a collaboré avec Google pour aller encore plus loin, en étudiant l'équivalent d'une chaîne presque deux fois plus longue que les deux précédentes. Vedika Khemani, de l'université de Stanford, et Matteo Ippoliti, aujourd'hui à l'université du Texas à Austin, avaient déjà utilisé le processeur quantique de Google en 2021 pour créer un cristal de temps, qui, comme les phases de propagation de l'intrication, est une phase exotique existant dans un système changeant.

En collaboration avec une vaste équipe de chercheurs, le duo a repris les deux astuces mises au point par le groupe de Noel et y a ajouté un nouvel ingrédient : le temps. L'équation de Schrödinger relie le passé d'une particule à son avenir, mais la mesure rompt ce lien. Ou, comme le dit Khemani, "une fois que l'on introduit des mesures dans un système, cette flèche du temps est complètement détruite".

Sans flèche du temps claire, le groupe a pu réorienter la clôture à mailles losangiques de Nahum pour accéder à différents qubits à différents moments, ce qu'ils ont utilisé de manière avantageuse. Ils ont notamment découvert une transition de phase dans un système équivalent à une chaîne d'environ 24 qubits, qu'ils ont décrite dans un article publié en mars.

Puissance de la mesure

Le débat de Skinner et Nahum sur le pudding, ainsi que les travaux de Fisher et Smith, ont donné naissance à un nouveau sous-domaine parmi les physiciens qui s'intéressent à la mesure, à l'information et à l'enchevêtrement. Au cœur de ces différentes lignes de recherche se trouve une prise de conscience croissante du fait que les mesures ne se contentent pas de recueillir des informations. Ce sont des événements physiques qui peuvent générer des phénomènes véritablement nouveaux.

"Les mesures ne sont pas un sujet auquel les physiciens de la matière condensée ont pensé historiquement", a déclaré M. Fisher. Nous effectuons des mesures pour recueillir des informations à la fin d'une expérience, a-t-il poursuivi, mais pas pour manipuler un système.

En particulier, les mesures peuvent produire des résultats inhabituels parce qu'elles peuvent avoir le même type de saveur "partout-tout-enmême-temps" qui a autrefois troublé Einstein. Au moment de la mesure, les possibilités alternatives contenues dans l'état quantique s'évanouissent, pour ne jamais se réaliser, y compris celles qui concernent des endroits très éloignés dans l'univers. Si la non-localité de la mécanique quantique ne permet pas des transmissions plus rapides que la lumière comme le craignait Einstein, elle permet d'autres exploits surprenants.

"Les gens sont intrigués par le type de nouveaux phénomènes collectifs qui peuvent être induits par ces effets non locaux des mesures", a déclaré M. Altman.

L'enchevêtrement d'une collection de nombreuses particules, par exemple, a longtemps été considéré comme nécessitant au moins autant d'étapes que le nombre de particules que l'on souhaitait enchevêtrer. Mais l'hiver dernier, des théoriciens ont décrit un moyen d'y parvenir en beaucoup moins d'étapes grâce à des mesures judicieuses. Au début de l'année, le même groupe a mis l'idée en pratique et façonné une tapisserie d'enchevêtrement abritant des particules légendaires qui se souviennent de leur passé. D'autres équipes étudient d'autres façons d'utiliser les mesures pour renforcer les états intriqués de la matière quantique.

Cette explosion d'intérêt a complètement surpris Skinner, qui s'est récemment rendu à Pékin pour recevoir un prix pour ses travaux dans le Grand Hall du Peuple sur la place Tiananmen. (Skinner avait d'abord cru que la question de Nahum n'était qu'un exercice mental, mais aujourd'hui, il n'est plus très sûr de la direction que tout cela prend.)

"Je pensais qu'il s'agissait d'un jeu amusant auquel nous jouions, mais je ne suis plus prêt à parier sur l'idée qu'il n'est pas utile."

Auteur: Internet

Info: Quanta Magazine, Paul Chaikin, sept 2023

[ passage inversant ] [ esprit-matière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste