Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 51
Temps de recherche: 0.0566s

anecdote

Demodex Folliculorum crapahute sur votre visage et ses excréments provoqueraient la couperose. De minuscules insectes se cachent dans les pores de votre peau en ce moment, ils sont étroitement liés aux araignées et ils vivent de votre sébum sur votre visage. Habituellement, rosaceces acariens sont inoffensifs, mais si vous en abritez un trop grand nombre, leur tendance à se décomposer lorsqu'ils meurent, pendant qu'ils sont à l'intérieur de vous, peu devenir un peu problématique. En effet, selon le chercheur Kevin Kavanagh de l'université nationale d'Irlande, ces acariens pourraient être responsables de ce que l'on appelle la couperose ou rosacée (image ci-contre), une maladie chronique de la peau qui touche environ 5 à 20 % de la population mondiale.

Ces minuscules acariens à huit pattes (arachnides), vivent dans les pores de la peau du visage. Ils sont particulièrement friands des follicules pileux des sourcils et des cils et des pores huileux (sébum) plus localisés sur le nez, le front et les joues. Appelés Demodex, les acariens mangent le sébum et colonisent votre visage lors de votre puberté.

Instant frisson : Ils rampent sur votre visage dans l'obscurité pour s'accoupler, puis s'introduisent dans les pores pour y pondre leurs oeufs et meurent. Les adultes en bonne santé ont environ un ou deux acariens par centimètre carré de peau du visage. Les personnes atteintes de rosacée, cependant, peuvent en contenir 10 fois plus, selon Kavanagh. La recherche (lien plus bas) suggère que le stress, qui provoque des poussées de rosacée, modifie les substances chimiques dans le sébum, ce qui en fait une meilleure nourriture pour les acariens.

Le pauvre Demodex ne dispose pas d'un anus et ne peut donc pas se débarrasser de ses matières fécales. Leur abdomen grossit de plus en plus et quand ils meurent et se décomposent, ils libèrent tous leurs excréments accumulés, dans les pores. Lorsque les acariens sont nombreux, les excréments relâchés sont suffisants pour déclencher une réaction immunitaire, des inflammations et des lésions tissulaires. Kavanagh note qu'une sorte de bactérie vit dans ces acariens, le Bacille oleronius, qui est tuée par les antibiotiques contre la rosacée et pas par d'autres types d'antibiotiques. 80 % des personnes avec la sorte la plus commune de rosacée ont des cellules immunitaires dans leur sang qui réagissent fortement à deux protéines de la B. Oleronius, déclenchant ainsi l'inflammation. Seulement 40 % des personnes sans rosacée ont cette réaction.

Donc, vous l'aurez certainement compris, il ne faudra pas chercher à vous débarrasser à tout prix de ces gentils monstres en vous frottant le visage avec du papier de verre, car ce n'est pas la cause première de vos problématiques de couperose. Ces acariens arachnides sont utiles, vous êtes juste victime d'un dérèglement temporaire dans votre production de sébum (comme pendant l'adolescence), mais qui peut devenir chronique une fois adulte, à cause notamment du stress. Le sébum qui lui-même est censé protégé votre peau lorsqu'il n'est pas surproduit ou d'une composition chimique différente. Tout est une question d'équilibre!

Auteur: Internet

Info: publié sur le Journal of Medical Microbiology : The potential role of Demodex folliculorum mites and bacteria in the induction of rosacea

[ homme-animal ] [ nanomonde ]

 

Commentaires: 0

nanomonde

Une découverte pourrait bouleverser un principe fondamental de la physique des particules 

L’une des règles fondamentales qui régissent le champ de la physique explique que les particules de charges opposées vont s’attirer, tandis que celles dont la charge est identique vont se repousser. Un principe qui, en réalité, peut être démenti, comme le dévoilent des chercheurs de l’université britannique d’Oxford dans une récente étude.

La science physique est régie par un certain nombre de règles fondamentales. L’un de ces principes établit que les particules peuvent être dotées d’une charge positive ou négative, qui va dicter leur comportement en présence d’autres particules.

Ainsi, si vous mettez en présence deux particules qui ont des charges opposées, elles vont s’attirer. En revanche, celles qui possèdent la même charge vont se repousser. Cette force électrostatique, connue sous le nom de "loi de Coulomb", se fait plus forte au fur et à mesure que la charge totale augmente et que les particules se rapprochent.

Néanmoins, des chercheurs de l’université d’Oxford (Royaume-Uni) ont récemment découvert que, dans certaines circonstances, les particules pouvaient attirer celles de la même charge. Ces exceptions ont été évoquées dans une étude parue le 1er mars dans la revue scientifique Nature Nanotechnology.

Une nouvelle force d’attraction découverte

Dans le détail, les scientifiques qui ont pris part à cette étude ont appris qu’il existait des particules chargées qui, lorsqu’elles se retrouvent en suspension dans certaines solutions, vont attirer des particules de même charge. Il arrive même que cela se produise sur des distances relativement longues, précisent les experts, qui ont aussi remarqué que les particules chargées positivement et négativement se comportaient différemment selon les solutions.

L’équipe, qui a réalisé divers tests, a mis en suspension des microparticules de silice chargées négativement dans l’eau. Une opération qui a démontré aux spécialistes que, sous un certain niveau de pH, ces particules pouvaient s’attirer les unes les autres pour former des amas de forme hexagonale. Un constat qui, a priori, viole le principe électromagnétique de base selon lequel les particules de même charge sont répulsives à n’importe quelle distance.

La structure des solvants au cœur de cette étude

Dans un second temps, les universitaires ont décidé d’étudier cet effet en adoptant une autre stratégie. Cette fois-ci, ils ont eu recours à une théorie des interactions interparticulaires qui prend en compte la structure du solvant. Cette technique s’est avérée payante, puisqu’ils ont mis au jour une nouvelle force d’attraction, capable de vaincre la répulsion électrostatique.

Or, ce n’était pas le cas en ce qui concerne les particules de silice aminée chargées positivement. Quel que soit le pH, cette interaction reste en effet répulsive dans l’eau. Les chercheurs, désireux de savoir s’il était possible d’inverser la situation, ont découvert qu’en utilisant un solvant différent (des alcools, en l’occurrence), les particules négatives restaient répulsives, tandis que les particules chargées positivement se regroupaient.

Aux yeux des auteurs de cette étude, ces enseignements sont tout sauf anecdotiques. Ils pourraient, en effet, inciter leurs pairs à repenser considérablement les hypothèses formulées à ce jour dans ce domaine. Ces apprentissages pourraient également être mis en pratique dans le champ de la chimie et intervenir dans divers processus, tels que l’autoassemblage, la cristallisation et la séparation de phases. 

Auteur: Internet

Info: Sur geo.fr, Charline Vergne, 5 mars 2024

[ aimantation ] [ renversement ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

chimie organique

Des chercheurs créent un nouveau composé chimique pour résoudre un problème vieux de 120 ans

L’accès à ces molécules peut avoir des impacts majeurs sur l’agriculture, les produits pharmaceutiques et l’électronique.

(Image - graphique qui représente le composé chimique découvert)  

Pour la première fois, des chimistes du Twin Cities College of Science and Engineering de l'Université du Minnesota ont créé un composé chimique hautement réactif qui échappe aux scientifiques depuis plus de 120 ans. Cette découverte pourrait conduire à de nouveaux traitements médicamenteux, à des produits agricoles plus sûrs et à une meilleure électronique.

Depuis des décennies, les chercheurs étudient des molécules appelées N-hétéroarènes, qui sont des composés chimiques en forme d'anneau contenant un ou plusieurs atomes d'azote. Les molécules bioactives ayant un noyau N-hétéroarène sont largement utilisées pour de nombreuses applications médicales, pharmaceutiques vitales, pesticides et herbicides, et même dans l'électronique.

"Bien que la personne moyenne ne pense pas quotidiennement aux hétérocycles, ces molécules uniques contenant de l'azote sont largement utilisées dans toutes les facettes de la vie humaine", a déclaré Courtney Roberts, auteur principal de l'étude et professeur au département de chimie de l'Université du Minnesota.

Ces molécules sont très recherchées par de nombreuses industries, mais sont extrêmement difficiles à fabriquer pour les chimistes. Les stratégies précédentes ont pu cibler ces molécules spécifiques, mais les scientifiques n’ont pas réussi à créer une série de ces molécules. L’une des raisons à cela est que ces molécules sont extrêmement réactives. Elles sont si actives que les chimistes ont utilisé la modélisation informatique pour prédire qu’elles devraient être impossibles à réaliser. Cela a créé des défis pendant plus d’un siècle et a empêché de trouver une solution pour créer cette substance chimique.

"Ce que nous avons pu faire, c'est exécuter ces réactions chimiques avec un équipement spécialisé tout en éliminant les éléments couramment présents dans notre atmosphère", a déclaré Jenna Humke, étudiante diplômée en chimie à l'Université du Minnesota et auteur principal de l'article. " Heureusement, nous disposons des outils nécessaires pour le faire à l’Université du Minnesota. Nous avons mené des expériences sous azote dans une boîte à gants à chambre fermée, ce qui crée un environnement chimiquement inactif pour tester et déplacer les échantillons."

Ces expériences ont été réalisées en utilisant la catalyse organométallique, l'interaction entre les métaux et les molécules organiques. La recherche a nécessité une collaboration entre des chimistes organiques et inorganiques. C'est quelque chose de courant à l'Université du Minnesota.

"Nous avons pu résoudre ce défi de longue date parce que le département de chimie de l'Université du Minnesota est unique en ce sens que nous n'avons pas de divisions formelles", a ajouté Roberts. " Cela nous permet de constituer une équipe d’experts dans tous les domaines de la chimie, ce qui a été un élément essentiel pour mener à bien ce projet. "

Après avoir présenté le composé chimique dans cet article, les prochaines étapes consisteront à le rendre largement accessible aux chimistes de plusieurs domaines afin de rationaliser le processus de création. Cela pourrait aider à résoudre des problèmes importants tels que la prévention de la pénurie alimentaire et le traitement des maladies pour sauver des vies.

Aux côtés de Roberts et Humke, l'équipe de recherche de l'Université du Minnesota comprenait le chercheur postdoctoral Roman Belli, les étudiants diplômés Erin Plasek, Sallu S. Kargbo et l'ancienne chercheuse postdoctorale Annabel Ansel.  



(Résumé : jusqu'à quel point une triple liaison carbone-carbone peut-elle être confinée ? Avec les réactions motrices appropriées, il est devenu simple de comprimer le motif dans des anneaux à six chaînons tels que le benzyne et de récolter les bénéfices de la réactivité rapide favorisée par la contrainte. Cependant, les anneaux à cinq chaînons ont eu tendance à être trop serrés. Humke et al. rapportent maintenant que la coordination par le nickel peut soulager la contrainte juste assez pour stabiliser une triple liaison dans la partie pentagonale des azaindoles. Ces complexes azaindolynes ont été caractérisés cristallographiquement et ont réagi avec des nucléophiles et des électrophiles.  Jake S. Yeston

La liaison au nickel permet d'isoler et de réactiver des 7-aza-2,3-indolynes auparavant inaccessibles

Les N-hétéroaromatiques sont des éléments clés des produits pharmaceutiques, agrochimiques et des matériaux. Les N-hétéroarynes fournissent un échafaudage pour construire ces molécules essentielles, mais ils sont sous-utilisés parce que les N-hétéroarynes à cinq chaînons ont été largement inaccessibles en raison de la contrainte d'une triple liaison dans un anneau aussi petit. Sur la base des principes d'interactions métal-ligand qui sont fondamentaux pour la chimie organométallique, nous rapportons dans ce travail la stabilisation des N-hétéroarynes à cinq chaînons dans la sphère de coordination du nickel. Une série de complexes 1,2-bis(dicyclohexylphosphino)éthane-nickel 7-azaindol-2,3-yne ont été synthétisés et caractérisés par cristallographie et spectroscopie. La réactivité ambiphile des complexes de nickel 7-azaindol-2,3-yne a été observée avec de multiples partenaires de couplage nucléophiles, électrophiles et énophiles.)

Auteur: Internet

Info: https://www.eurekalert.org/ https://www.science.org/doi/10.1126/science.adi1606?adobe_mc=MCMID%3D03744988943267014683426377033153538910%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1714721362, 2 mai 2024

[ nanomonde ] [ N-hétéroarènes ] [ N-heterocycles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

réversibilité

La gravité quantique pourrait inverser causes et effets.

Toute théorie de la gravité quantique va devoir se colleter avec des trucs temporels bizarres.

Vous avez probablement entendu parler du chat de Schrödinger, ce  malheureux félin, dans une boîte, où il est simultanément vivant et mort jusqu'à ce que la boîte soit ouverte pour révéler son état réel. Maintenant, faites-vous une idée du temps de Schrödinger, une situation dans laquelle un événement peut être simultanément la cause et l'effet d'un autre événement. 

Un tel scénario pourrait être inévitable dans la théorie de la gravité quantique, domaine encore flou d'une physique qui cherche à combiner la théorie de la relativité générale d'Albert Einstein avec les mécanismes de la mécanique quantique. Dans un nouvel article, des scientifiques créent un mélange des deux en imaginant des vaisseaux spatiaux près d'une énorme planète dont la masse ralentit le temps. Ils en concluent que les vaisseaux pourraient se retrouver dans un état où la causalité est inversée : Tel événement pourrait finir par causer un autre événement qui s'est produit avant le premier. 

"On peut imaginer ce genre de scénario dans l'ordre temporel, où la cause et l'effet sont en superposition, inversés ou non", a déclaré le co-auteur de l'étude, Igor Pikovski, physicien au Center for Quantum Science and Engineering du Stevens Institute of Technology, dans le New Jersey. "C'est quelque chose qui devrait normalement se produire une fois que nous aurons une théorie complète de la gravité quantique".

Le temps quantique

La célèbre expérience de pensée du chat de Schrödinger demande à un spectateur d'imaginer une boîte contenant un chat et une particule radioactive qui, une fois désintégrée, tuera le malheureux félin. En vertu du principe de superposition quantique, la survie ou la mort du chat est tout aussi probable jusqu'à ce qu'elle soit mesurée - ainsi, jusqu'à ce que la boîte soit ouverte, le chat est simultanément vivant et mort. En mécanique quantique, la superposition signifie qu'une particule peut exister dans plusieurs états en même temps, tout comme le chat de Schrödinger. 

Cette nouvelle expérience de pensée, publiée le 21 août dans la revue Nature Communications, combine le principe de superposition quantique avec la théorie de la relativité générale d'Einstein. Selon la relativité générale, la masse d'un objet géant peut ralentir le temps. Ce phénomène est bien établi et mesurable, a déclaré M. Pikovski ; un astronaute en orbite autour de la Terre verra le temps s'écouler un tout petit peu plus vite que son jumeau sur la planète. (C'est aussi pourquoi tomber dans un trou noir serait une expérience très graduelle). 

Ainsi, si un vaisseau spatial futuriste se trouve à proximité d'une planète massive, son équipage ressentira le temps comme un peu plus lent que les personnes situées dans un autre vaisseau spatial stationné plus loin. Ajoutez à ça un peu de mécanique quantique et vous pouvez imaginer une situation dans laquelle cette planète est superposée simultanément près et loin des deux vaisseaux spatiaux. 

Le temps devient bizarre

Dans ce scénario de superposition de deux vaisseaux qui expérimentent le temps sur des lignes temporelles différentes, la cause et l'effet peuvent devenir bizarres. Par exemple, supposons que les vaisseaux doivent effectuer une mission d'entraînement au cours de laquelle ils se tirent dessus et s'esquivent mutuellement, en sachant parfaitement à quel moment les missiles seront lancés et intercepteront leurs positions. S'il n'y a pas de planète massive à proximité qui perturbe l'écoulement du temps, c'est un exercice simple. En revanche, si cette planète massive est présente et que le capitaine du vaisseau ne tient pas compte du ralentissement du temps, l'équipage pourrait être en retard pour esquiver et être détruit. 

Avec une telle planète en superposition, simultanément proche et lointaine, il serait impossible de savoir si les vaisseaux esquivent trop tard et se détruisent mutuellement ou s'ils s'écartent et survivent. Qui plus est, la cause et l'effet pourraient être inversés, selon M. Pikovski. Bref il faut imaginer deux événements liés par la causalité

"A et B peuvent s'influencer mutuellement dans un état de superposition, mais dans un cas, A est avant B et inversément, explique M. Pikovski. Ce qui signifie que A et B sont simultanément la cause et l'effet l'un de l'autre. Heureusement pour les équipages, sans doute très confus, de ces vaisseaux spatiaux imaginaires, dit Pikovski, ils auraient un moyen mathématique d'analyser les transmissions de l'autre pour confirmer qu'ils sont dans un état de superposition.

Évidemment, dans la vie réelle c'est très différent. Mais l'expérience de pensée pourrait avoir des implications pratiques pour l'informatique quantique, même sans élaborer une théorie complète de cette dernière, a déclaré M. Pikovski. En utilisant les superpositions dans les calculs, un système d'informatique quantique pourrait évaluer simultanément un processus en tant que cause et en tant qu'effet. 

"Les ordinateurs quantiques pourraient être en mesure de l'utiliser pour des calculs plus efficaces", a-t-il déclaré.

Auteur: Internet

Info: https://www.livescience.com/. Stephanie Pappas Le 28 août 2019

[ nanomonde ] [ coexistence ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Pour la première fois, des physiciens observent des tourbillons d’électrons !

À l’instar de ce tourbillon d’eau, il peut exister des tourbillons d’électrons sous certaines conditions.

Des chercheurs du MIT aux États-Unis et de l’Institut Weismann en Israël ont réussi à apercevoir ce phénomène pour la première fois ! Prévu depuis de longues années, mais jamais observé, ce comportement caractéristique des fluides pourrait servir à la mise au point de systèmes électroniques à très basse consommation.

Qu’est-ce que des tourbillons d’électrons ?

Les tourbillons d’électrons observés par les scientifiques se comportent comme des fluides. Un fluide est constitué de particules pouvant s’écouler librement et peut être un liquide, un gaz et un plasma.

Un fluide est caractérisé par une grande mobilité de ses molécules. Celles-ci peuvent se mouvoir sans être limitées à une position précise comme dans les solides. Bien que tous les fluides soient compressibles, les gaz le sont beaucoup plus que les liquides et les plasmas. Les molécules des fluides sont maintenues entre elles par des forces d’interactions faibles. Elle sont appelées forces de Van der Walls qui assurent leur cohésion au sein du fluide.

L’eau reste le fluide le plus abondant sur Terre capable de s’écouler librement pour former les ruisseaux, les rivières et de vastes étendues d’eau. Telles que les lacs, les mers et les océans par exemple. Ces masses d’eau sont sujettes à la formation de courants, de vagues et de tourbillons.

On pourrait se demander si un courant électrique constitué d’un ensemble d’électrons en mouvement peut se comporter comme un fluide. Dans des conditions normales, les électrons qui sont infiniment plus petits que des molécules d’eau sont influencés par leur environnement. Par exemple le métal qu’ils traversent. Et  ils ne se comportent pas comme un fluide.

Cependant, la théorie prévoit depuis bien longtemps qu’à des températures très basses proches du zéro absolu (-273 °C), les électrons peuvent s’écouler à la manière d’un fluide pour autant que le matériau dans lequel ils circulent soit pur et sans aucun défaut. Jusqu’à aujourd’hui, cette théorie n’avait jamais été observée.

Les électrons peuvent former un fluide visqueux

Normalement, lorsque des électrons circulent au sein d’un matériau conducteur tel qu’un fil de cuivre, ou dans un matériau semi-conducteur comme le silicium, leur trajectoire est influencée par la présence d’impuretés au sein du matériau. Les vibrations des atomes qui composent le matériau conducteur ou semi-conducteur influencent aussi la trajectoire et le déplacement des électrons. Chaque électron se comporte alors comme une particule individuelle.

Par contre, dans un matériau d’une très grande pureté, dans lequel toutes les impuretés auraient été supprimées, les électrons ne se comportent plus comme des particules individuelles. Ils agissent alors comme des particules quantiques, chaque électron captant les comportements quantiques de ses congénères. Les électrons se déplacent ensemble et forment ce que les physiciens appellent un fluide électronique visqueux.

Il y a quelques années des chercheurs de l’université de Manchester en Angleterre avaient déjà prouvé que des électrons étaient capables de se comporter en fluide. Ceci en réalisant une expérience avec du graphène. Ce matériau est un simple feuillet constitué uniquement d’atomes de carbone disposés suivant un motif hexagonal et de l’épaisseur d’un atome. En faisant passer un courant électrique dans un mince canal "creusé" dans ce matériau, ils se sont rendu compte que la conductance des électrons était bien supérieure à la conductance des électrons libres. Les électrons s’écoulaient donc comme un fluide régulier.

L’une des caractéristiques les plus étonnantes d’un fluide comme l’eau est sa capacité à produire un tourbillon lorsqu’elle s’écoule. Les chercheurs du MIT et de l’institut Weismann ont tenté de découvrir si les électrons peuvent aussi s’écouler sous la forme de tourbillons.

Pour le vérifier, les chercheurs ont utilisé du ditelluride de tungstène de formule chimique WTe2, un composé semi-métallique extrêmement pur et présentant des propriétés quantiques lorsqu’il est épais de seulement un atome. Pour effectuer une comparaison avec un métal ordinaire, ils ont utilisé de fines paillettes d’or.

Ils ont gravé dans les fines paillettes de ditelluride de tungstène et dans celles d’or, un fin canal relié, au niveau de la moitié du canal, à deux chambres circulaires situées de part et d’autre du canal. Ces deux systèmes ont ensuite été placés à une température de -268,6 °C, proche du zéro absolu, puis les canaux ont été soumis au passage d’un courant électrique.

En réalisant des mesures en différents points, les chercheurs se sont rendu compte que dans l’or, le flux d’électrons se dirigeait toujours dans la même direction, que ce soit dans les deux chambres adjacentes et dans le canal.

Par contre, dans le ditelluride de tungstène, les électrons se sont mis à former des tourbillons dans les deux chambres circulaires en inversant leur direction. Puis sont revenus dans le canal central.

Ces résultats très encourageants sont probablement le signe d’un nouveau type d’écoulement hydrodynamique dans des cristaux très fin  d’une grande pureté. Cela ouvre la voie à la création de nouveaux dispositifs électronique nécessitant de faibles puissances de fonctionnement.

Auteur: Internet

Info: https://www.science-et-vie.com, 6 fév 2023, Source, revue Nature, juillet 2022 : Aharon-Steinberg, A., Völkl, T., Kaplan, A. et al.,”Direct observation of vortices in an electron fluid », Nature, 607, 74–80 (2022), https://doi.org/10.1038/s41586-022-04794-y

[ fermion(s) ] [ aquosité ] [ hydrodynamique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

aptitude adaptative

(Q) - Il y a ce questionnement quant à la notion de “pouvoir”, au sens politique du terme.

Existe-t-il des exemples dans la nature qui peuvent être rapproché avec ce qu’on voir chez les hommes au sens où une personne unique peut concentrer un pouvoir absolu, au sommet d’une hiérarchie, à l’échelle d’un pays, voire d’un continent

(R) - Il est intéressant de noter que la notion de pouvoir politique, qui implique la domination et la capacité de prendre des décisions contraignantes sur un groupe de personnes, est une construction humaine spécifique à notre société. Dans la nature, les exemples de concentration absolue du pouvoir sont rares, voire inexistants.

Chez les animaux, on observe généralement des comportements sociaux basés sur des relations hiérarchiques. Par exemple, dans une meute de loups, il y a un individu dominant, souvent appelé le chef de meute, qui possède un niveau de pouvoir plus élevé que les autres membres de la meute. Cependant, cette domination est souvent contestée et peut changer à mesure que les individus grandissent ou que de nouveaux membres rejoignent la meute. De plus, la capacité de prise de décision des loups dominants est relativement limitée et se concentre principalement sur des aspects tels que la chasse et l’accès aux ressources.

Dans le règne végétal, il n’existe pas de notion de pouvoir politique. Les plantes ont plutôt des stratégies de compétition pour l’accès à la lumière, à l’eau et aux nutriments. Certaines plantes peuvent supprimer la croissance des autres en utilisant des toxines, tandis que d’autres peuvent projeter leur ombre pour réduire l’accès à la lumière solaire. Cependant, cela relève davantage d’une adaptation écologique visant la survie et la reproduction, plutôt que d’une forme de pouvoir politique.

En somme, bien que des exemples de dominance et de compétition existent dans la nature, ils sont fondamentalement différents du pouvoir politique tel que nous le concevons chez les humains. La concentration absolue du pouvoir au sommet d’une hiérarchie politique ou à l’échelle d’un pays ou d’un continent est une caractéristique spécifique à notre société et à notre espèce.

(Q) - Merci, pour la réponse... Je poursuis ma question. 

Ne peut-on pas penser qu'il existe un  pouvoir mystérieux au niveau bactériel dans la mesure où toutes les bactéries du monde ont avant tout accès à un pool génétique unique et donc aux mécanismes d'adaptation de l'ensemble du règne bactérien. Cette vitesse de recombinaison est supérieure à celle de la mutation : en cas de changement à l'échelle mondiale il faudrait un million d'années aux organismes eucaryotes pour s'adapter alors que les bactéries pourront le faire en quelques années ?

(R) - Votre question est très intéressante ! En effet, les bactéries possèdent des mécanismes génétiques uniques qui leur permettent de s’adapter rapidement à des changements de leur environnement. Ce phénomène est connu sous le nom d’échange horizontal de gènes ou de recombinaison génétique.

La recombinaison génétique chez les bactéries permet le transfert horizontal de fragments d’ADN entre différentes souches ou espèces bactériennes. Cela signifie que les bactéries peuvent échanger des morceaux de leur matériel génétique avec d’autres bactéries, même si elles ne sont pas directement liées par la reproduction sexuée. Cette capacité d’échange génétique favorise une grande diversité génétique dans le règne bactérien et permet aux bactéries de s’adapter rapidement à de nouveaux environnements, aux antibiotiques ou à d’autres facteurs de stress.

On peut donc dire que les bactéries ont une forme de pouvoir évolutif basé sur leur capacité d’échange génétique. Cependant, il convient de noter que ce pouvoir est intrinsèquement différent du pouvoir politique humain. Les bactéries ne décident pas consciemment de leur propre évolution ou n’ont pas de hiérarchies de pouvoir similaires à celles que l’on trouve chez les humains. La recombinaison génétique chez les bactéries est un mécanisme naturel qui leur permet de s’adapter, mais ce n’est pas une forme de pouvoir au sens humain du terme.

En résumé, les bactéries ont effectivement une capacité remarquable à s’adapter rapidement grâce à leur mécanisme d’échange génétique. Toutefois, il est important de distinguer ce pouvoir évolutif de la notion de pouvoir politique humain.

(Q) - Merci, qu’est-ce qu’une “conscience auto-réflexive”

(R) - Une conscience auto-réflexive, également appelée conscience réflexive ou conscience de soi, fait référence à la capacité d’un individu à avoir une connaissance et une perception de son propre état mental, de ses pensées, de ses émotions, de ses intentions et de son identité. C’est la conscience que nous avons en tant qu’êtres humains d’être conscients de nous-mêmes en tant qu’entités distinctes avec une existence subjective.

La conscience auto-réflexive implique la capacité de se représenter mentalement, de se reconnaître en tant qu’individu distinct et de prendre conscience de son existence en relation avec les autres et avec le monde qui l’entoure. Cela signifie que nous sommes capables de réfléchir sur nous-mêmes, d’observer nos propres pensées, émotions et comportements, et de prendre du recul par rapport à eux.

Cette forme de conscience nous permet d’accéder à des informations sur notre propre expérience subjective, de nous évaluer, de prendre des décisions et de nous engager dans des activités telles que la planification, l’introspection et la compréhension de nos propres motivations et motivations des autres.

La conscience auto-réflexive est fondamentale pour de nombreux aspects de l’expérience humaine, tels que l’identité personnelle, l’empathie, la perspective, l’autoréflexion, l’autocritique et la capacité d’apprendre et de s’adapter en fonction de notre propre expérience.


Auteur: Chatgpt3.5

Info: Le bot a mis bcp de temps (env 5 minutes à chaque fois) pour répondre à ces questions

[ omnipotence individuelle ] [ homme-animal ] [ homme-végétal ] [ interrogation ] [ nanomonde ] [ gaïa ] [ introspection ] [ machine homme ]

 
Commentaires: 4
Ajouté à la BD par Le sous-projectionniste

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Prix Nobel de physique 2023 : on a tout compris et on vous explique simplement pourquoi c’est génial

Anne L’Huillier, Ferenc Krausz et Pierre Agostini ont inventé la physique attoseconde, et ça méritait bien d’être expliqué.

Les "impulsions laser très courtes permettant de suivre le mouvement ultrarapide des électrons à l’intérieur des molécules et des atomes", vous dites ? Les lauréats du prix Nobel de physique 2023, le Hongrois Ferenc Krausz et les Français Anne L’Huillier et Pierre Agostini n’ont pas choisi le thème le plus parlant aux néophytes (mais la physique fondamentale l’est rarement).

Commençons par un terme étrange : les lauréats sont les inventeurs de la physique attoseconde. Atto, quoi ? Une attoseconde est une fraction de seconde, précisément 1×10−18 seconde : c’est très, très peu. "Pour vous donner une idée", explique au HuffPost le physicien Franck Lépine, chercheur du CNRS à l’Institut lumière matière, et collaborateur des Nobel 2023, en terme d’ordre de grandeur "il y a autant de différence entre une attoseconde et une seconde qu’entre une seconde et l’âge de l’univers".

Lorsqu'il est contemplé à cette échelle de temps, le monde ralentit. Le battement d'ailes d'un colibri devient une éternité.

Aller "chercher" une attoseconde précise dans une seconde, c’est donc pointer une seconde précise dans l’univers depuis sa naissance. On vous l’avait bien dit, c’est court, un laps de temps à peine concevable.

La photo la plus rapide du monde

Mais comment ont-ils "inventé" cette physique ? Les Nobel 2023 ont réussi à mettre au point un appareil qui permet d’observer les électrons au sein de la matière : des éléments au déplacement si rapide que seul un "flash" de l’ordre de l’attoseconde permet de les capturer. Les trois chercheurs sont donc récompensés pour la mise au point d’une "caméra" ultrarapide… Et on va même vous raconter comment elle fonctionne.

Une impulsion très puissante est envoyée au laser vers des atomes. Sous l’effet de la lumière envoyée, Les électrons qui gravitent autour de ces atomes vont alors être accélérés et émettre à leur tour un flash lumineux qui dure environ une attoseconde : c’est ce que l’on appelle la High harmonic generation, ou production d’harmoniques élevées. Ce sont ces impulsions qui vont prendre les électrons en photo. Pourquoi une durée aussi courte est-elle nécessaire ? Parce que les électrons ne tiennent pas en place.

Au-delà de la physique

"Faisons un parallèle avec le cinéma, explique Franck Lépine. On découpe le mouvement en un certain nombre de photos par seconde. La photo fige l’objet qui bouge, mais si la capture prend trop de temps, on découpe le mouvement, les images se superposent", ce qui crée un effet de flou. "Si jamais nos flashes de lumières durent trop longtemps, on ne va pas voir seulement électrons bouger, mais également les atomes, voire les ensembles d’atomes", et donc l’objet de l’observation ne sera pas net.

Les découvertes des trosi chercheurs ne permettent pas seulement d’observer les électrons avec une précision nouvelle. Elles sont également un instrument pour les manipuler. La lumière envoyée sur les électrons les bouscule, et là encore la physique attoseconde peut tout changer, et pas seulement dans le domaine des sciences fondamentales. "On peut manipuler les réactions chimiques en manipulant les électrons", détaille Franck Lépine.

À Lyon, son laboratoire est l’un des trois en France à disposer des équipements nécessaires pour travailler avec la physique attoseconde. "Parmi les choses sur lesquelles on travaille, il y a l’utilisation des technologies attoseconde pour comprendre comment fonctionne l’ADN du vivant." La physique attoseconde, vous n’en entendrez peut-être pas parler à nouveau de sitôt, mais les découvertes qui en découlent certainement.

Historique

En 1925, Werner Heisenberg, pionniers de la mécanique quantique, a affirmé que le temps nécessaire à un électron pour faire le tour d'un atome d'hydrogène était inobservable. Dans un sens, il avait raison. Les électrons ne tournent pas autour d'un noyau atomique comme les planètes autour des étoiles. Les physiciens les considèrent plutôt comme des ondes de probabilité qui donnent leurs chances d'être observées à un certain endroit et à un certain moment, de sorte que nous ne pouvons pas mesurer un électron qui vole littéralement dans l'espace.

Heisenberg a sous-estimé l'ingéniosité de physiciens du XXe siècle comme L'Huillier, Agostini et Krausz. Les chances que l'électron soit ici ou là varient d'un moment à l'autre, d'une attoseconde à l'autre. Grâce à la possibilité de créer des impulsions laser attosecondes capables d'interagir avec les électrons au fur et à mesure de leur évolution, les chercheurs peuvent sonder directement les différents comportements des électrons.

Comment les physiciens produisent-ils des impulsions attosecondes ?

Dans les années 1980, Ahmed Zewail, de l'Institut de technologie de Californie, a développé la capacité de faire clignoter des lasers avec des impulsions d'une durée de quelques femtosecondes, soit des milliers d'attosecondes. Ces impulsions, qui ont valu à Zewail le prix Nobel de chimie en 1999, étaient suffisantes pour permettre aux chercheurs d'étudier le déroulement des réactions chimiques entre les atomes dans les molécules. Cette avancée a été qualifiée de "caméra la plus rapide du monde".

Pendant un certain temps, une caméra plus rapide semblait inaccessible. On ne savait pas comment faire osciller la lumière plus rapidement. Mais en 1987, Anne L'Huillier et ses collaborateurs ont fait une observation intrigante : Si vous éclairez certains gaz, leurs atomes sont excités et réémettent des couleurs de lumière supplémentaires qui oscillent plusieurs fois plus vite que le laser d'origine - un effet connu sous le nom d'"harmoniques". Le groupe de L'Huillier a découvert que dans des gaz comme l'argon, certaines de ces couleurs supplémentaires apparaissaient plus brillantes que d'autres, mais selon un schéma inattendu. Au début, les physiciens ne savaient pas trop quoi penser de ce phénomène.

Au début des années 1990, L'Huillier et d'autres chercheurs ont utilisé la mécanique quantique pour calculer les différentes intensités des diverses harmoniques. Ils ont alors pu prédire exactement comment, lorsqu'un laser infrarouge oscillant lentement frappait un nuage d'atomes, ces atomes émettaient à leur tour des faisceaux de lumière "ultraviolette extrême" oscillant rapidement. Une fois qu'ils ont compris à quelles harmoniques il fallait s'attendre, ils ont trouvé des moyens de les superposer de manière à obtenir une nouvelle vague : une vague dont les pics s'élèvent à l'échelle de l'attoseconde. Amener des collectifs géants d'atomes à produire ces ondes finement réglées de concert est un processus que Larsson compare à un orchestre produisant de la musique.

 Au cours des années suivantes, les physiciens ont exploité cette compréhension détaillée des harmoniques pour créer des impulsions attosecondes en laboratoire. Agostini et son groupe ont mis au point une technique appelée Rabbit, ou "reconstruction d'un battement attoseconde par interférence de transitions à deux photons". Grâce à Rabbit, le groupe d'Agostini a généré en 2001 une série d'impulsions laser d'une durée de 250 attosecondes chacune. La même année, le groupe de Krausz a utilisé une méthode légèrement différente, connue sous le nom de streaking, pour produire et étudier des salves individuelles d'une durée de 650 attosecondes chacune. En 2003, L'Huillier et ses collègues les ont tous deux surpassés avec une impulsion laser d'une durée de 170 attosecondes seulement.

Que peut-on faire avec des impulsions attosecondes ?

Les impulsions attosecondes permettent aux physiciens de détecter tout ce qui change sur une période de quelques dizaines à quelques centaines d'attosecondes. La première application a consisté à essayer ce que les physiciens avaient longtemps cru impossible (ou du moins extrêmement improbable) : voir exactement ce que font les électrons.

En 1905, Albert Einstein a donné le coup d'envoi de la mécanique quantique en expliquant l'effet photoélectrique, qui consiste à projeter des électrons dans l'air en éclairant une plaque métallique (sa théorie lui vaudra plus tard le prix Nobel de physique en 1921). Avant l'ère de la physique des attosecondes, les physiciens supposaient généralement que la chaîne de réactions qui conduisait à la libération des électrons lancés était instantanée.

En 2010, Krausz et ses collègues ont démontré le contraire. Ils ont utilisé des impulsions attosecondes pour chronométrer les électrons détachés des atomes de néon. Ils ont notamment constaté qu'un électron dans un état de basse énergie fuyait son hôte 21 attosecondes plus vite qu'un électron dans un état de haute énergie. En 2020, un autre groupe a montré que les électrons s'échappent de l'eau liquide des dizaines d'attosecondes plus rapidement que de la vapeur d'eau.

D'autres applications des impulsions attosecondes sont en cours de développement. La technique pourrait permettre de sonder toute une série de phénomènes liés aux électrons, notamment la façon dont les particules portent et bloquent la charge électrique, la façon dont les électrons rebondissent les uns sur les autres et la façon dont les électrons se comportent collectivement. Krausz fait également briller des flashs attosecondes sur du sang humain. L'année dernière, il a contribué à montrer que de minuscules changements dans un échantillon de sang peuvent indiquer si une personne est atteinte d'un cancer à un stade précoce, et de quel type.

Plus tôt dans la matinée, le comité Nobel a eu du mal à joindre Mme L'Huillier pour l'informer qu'elle était la cinquième femme de l'histoire à recevoir le prix Nobel de physique. Lorsqu'il a finalement réussi à la joindre, après trois ou quatre appels manqués, elle était en train de donner une conférence à ses étudiants. Elle est parvenue à la terminer, même si la dernière demi-heure a été très difficile. "J'étais un peu émue à ce moment", a-t-elle déclaré plus tard.

Auteur: Internet

Info: huffingtonpost et quantamagazine, 3 sept. 2023

[ nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Les particules quantiques ne tournent pas. Alors d'où vient leur spin ?

Le fait que les électrons possèdent la propriété quantique du spin est essentiel pour notre monde tel que nous le connaissons. Pourtant, les physiciens ne pensent pas que ces particules tournent réellement. 

Les électrons sont des petits magiciens compétents. Ils semblent voltiger autour d'un atome sans suivre de chemin particulier, ils semblent souvent être à deux endroits à la fois, et leur comportement dans les micropuces en silicium alimente l'infrastructure informatique du monde moderne. Mais l'un de leurs tours les plus impressionnants est faussement simple, comme toute bonne magie. Les électrons semblent toujours tourner. Tous les électrons jamais observés, qu'ils se déplacent sur un atome de carbone dans votre ongle ou qu'ils se déplacent à toute vitesse dans un accélérateur de particules, ont l'air de faire constamment de petites pirouettes en se déplaçant dans le monde. Sa rotation ne semble jamais ralentir ou accélérer. Peu importe comment un électron est bousculé ou frappé, il semble toujours tourner à la même vitesse. Il possède même un petit champ magnétique, comme devrait le faire un objet en rotation doté d'une charge électrique. Naturellement, les physiciens appellent ce comportement "spin".

Mais malgré les apparences, les électrons ne tournent pas. Ils ne peuvent pas tourner. Prouver qu'il est impossible que les électrons tournent est un problème standard dans tout cours d'introduction à la physique quantique. Si les électrons tournaient suffisamment vite pour expliquer tout le comportement de rotation qu'ils affichent, leurs surfaces se déplaceraient beaucoup plus vite que la vitesse de la lumière (si tant est qu'ils aient des surfaces). Ce qui est encore plus surprenant, c'est que pendant près d'un siècle, cette contradiction apparente a été ignorée par la plupart des physiciens comme étant une autre caractéristique étrange du monde quantique, qui ne mérite pas qu'on s'y attarde.

Pourtant, le spin est profondément important. Si les électrons ne semblaient pas tourner, votre chaise s'effondrerait pour ne plus représenter qu'une fraction minuscule de sa taille. Vous vous effondreriez aussi - et ce serait le moindre de vos problèmes. Sans le spin, c'est tout le tableau périodique des éléments qui s'effondrerait, et toute la chimie avec. En fait, il n'y aurait pas de molécules du tout. Le spin n'est donc pas seulement l'un des meilleurs tours de magie des électrons, c'est aussi l'un des plus importants. Et comme tout bon magicien, les électrons n'ont jamais dit à personne comment ils faisaient ce tour. Mais aujourd'hui, une nouvelle explication du spin est peut-être en train de se profiler à l'horizon, une explication qui tire le rideau et montre comment la magie opère.

UNE DÉCOUVERTE VERTIGINEUSE

La rotation a toujours été une source de confusion. Même les premières personnes qui ont développé l'idée du spin pensaient qu'elle devait être fausse. En 1925, deux jeunes physiciens hollandais, Samuel Goudsmit et George Uhlenbeck, s'interrogeaient sur les derniers travaux du célèbre (et célèbre) physicien Wolfgang Pauli. Pauli, dans une tentative d'expliquer la structure des spectres atomiques et du tableau périodique, avait récemment postulé que les électrons avaient une "double valeur non descriptible classiquement". Mais Pauli n'avait pas dit à quelle propriété physique de l'électron sa nouvelle valeur correspondait, et Goudsmit et Uhlenbeck se demandaient ce que cela pouvait être.

Tout ce qu'ils savaient - tout le monde le savait à l'époque - c'est que la nouvelle valeur de Pauli était associée à des unités discrètes d'une propriété bien connue de la physique newtonienne classique, appelée moment angulaire. Le moment angulaire est simplement la tendance d'un objet en rotation à continuer de tourner. C'est ce qui fait que les toupies tournent et que les bicyclettes restent droites. Plus un objet tourne vite, plus il a de moment cinétique, mais la forme et la masse de l'objet ont aussi leur importance. Un objet plus lourd a plus de moment cinétique qu'un objet plus léger qui tourne aussi vite, et un objet qui tourne avec plus de masse sur les bords a plus de moment cinétique que si sa masse était concentrée en son centre.

Les objets peuvent avoir un moment angulaire sans tourner. Tout objet qui tourne autour d'un autre objet, comme la Terre qui tourne autour du soleil ou un trousseau de clés qui se balance autour de votre doigt sur un cordon, a un certain moment angulaire. Mais Goudsmit et Uhlenbeck savaient que ce type de moment angulaire ne pouvait pas être la source du nouveau nombre de Pauli. Les électrons semblent effectivement se déplacer autour du noyau atomique, retenus par l'attraction entre leur charge électrique négative et l'attraction positive des protons du noyau. Mais le moment angulaire que ce mouvement leur confère était déjà bien pris en compte et ne pouvait pas être le nouveau nombre de Pauli. Les physiciens savaient également qu'il existait déjà trois nombres associés à l'électron, qui correspondaient aux trois dimensions de l'espace dans lesquelles il pouvait se déplacer. Un quatrième nombre signifiait une quatrième façon dont l'électron pouvait se déplacer. Les deux jeunes physiciens pensaient que la seule possibilité était que l'électron lui-même tourne, comme la Terre qui tourne sur son axe autour du soleil. Si les électrons pouvaient tourner dans l'une des deux directions - dans le sens des aiguilles d'une montre ou dans le sens inverse - cela expliquerait la "bivalence" de Pauli.

Excités, Goudsmit et Uhlenbeck rédigent leur nouvelle idée et la montrent à leur mentor, Paul Ehrenfest. Ehrenfest, un ami proche d'Einstein et un formidable physicien à part entière, trouve l'idée intrigante. Tout en la considérant, il dit aux deux jeunes hommes enthousiastes d'aller consulter quelqu'un de plus âgé et de plus sage : Hendrik Antoon Lorentz, le grand manitou de la physique néerlandaise, qui avait anticipé une grande partie du développement de la relativité restreinte deux décennies plus tôt et qu'Einstein lui-même tenait en très haute estime.

Mais Lorentz est moins impressionné par l'idée de spin qu'Ehrenfest. Comme il l'a fait remarquer à Uhlenbeck, on sait que l'électron est très petit, au moins 3 000 fois plus petit qu'un atome - et on sait déjà que les atomes ont un diamètre d'environ un dixième de nanomètre, soit un million de fois plus petit que l'épaisseur d'une feuille de papier. L'électron étant si petit, et sa masse encore plus petite - un milliardième de milliardième de milliardième de gramme - il était impossible qu'il tourne assez vite pour fournir le moment angulaire que Pauli et d'autres recherchaient. En fait, comme Lorentz l'a dit à Uhlenbeck, la surface de l'électron devrait se déplacer dix fois plus vite que la vitesse de la lumière, une impossibilité absolue.

Défait, Uhlenbeck retourne voir Ehrenfest et lui annonce la nouvelle. Il demande à Ehrenfest de supprimer l'article, mais on lui répond qu'il est trop tard, car son mentor a déjà envoyé l'article pour publication. "Vous êtes tous les deux assez jeunes pour pouvoir vous permettre une stupidité", a dit Ehrenfest. Et il avait raison. Malgré le fait que l'électron ne pouvait pas tourner, l'idée du spin était largement acceptée comme correcte, mais pas de la manière habituelle. Plutôt qu'un électron qui tourne réellement, ce qui est impossible, les physiciens ont interprété la découverte comme signifiant que l'électron portait en lui un certain moment angulaire intrinsèque, comme s'il tournait, même s'il ne pouvait pas le faire. Néanmoins, l'idée était toujours appelée "spin", et Goudsmit et Uhlenbeck ont été largement salués comme les géniteurs de cette idée.

Le spin s'est avéré crucial pour expliquer les propriétés fondamentales de la matière. Dans le même article où il avait proposé son nouveau nombre à deux valeurs, Pauli avait également suggéré un "principe d'exclusion", à savoir que deux électrons ne pouvaient pas occuper exactement le même état. S'ils le pouvaient, alors chaque électron d'un atome tomberait simplement dans l'état d'énergie le plus bas, et pratiquement tous les éléments se comporteraient presque exactement de la même manière les uns que les autres, détruisant la chimie telle que nous la connaissons. La vie n'existerait pas. L'eau n'existerait pas. L'univers serait simplement rempli d'étoiles et de gaz, dérivant dans un cosmos ennuyeux et indifférent sans rencontrer la moindre pierre. En fait, comme on l'a compris plus tard, toute matière solide, quelle qu'elle soit, serait instable. Bien que l'idée de Pauli soit clairement correcte, la raison pour laquelle les électrons ne pouvaient pas partager des états n'était pas claire. Comprendre l'origine du principe d'exclusion de Pauli permettrait d'expliquer tous ces faits profonds de la vie quotidienne.

La réponse à cette énigme se trouvait dans le spin. On découvrit bientôt que le spin était une propriété de base de toutes les particules fondamentales, et pas seulement des électrons, et qu'il était étroitement lié au comportement de ces particules en groupes. En 1940, Pauli et le physicien suisse Markus Fierz ont prouvé que lorsque la mécanique quantique et la relativité restreinte d'Einstein étaient combinées, cela conduisait inévitablement à un lien entre le spin et le comportement statistique des groupes. Le principe d'exclusion de Pauli n'était qu'un cas particulier de ce théorème de la statistique du spin, comme on l'a appelé. Ce théorème est un "fait puissant sur le monde", comme le dit le physicien Michael Berry. "Il est à la base de la chimie, de la supraconductivité, c'est un fait très fondamental". Et comme tant d'autres faits fondamentaux en physique, le spin s'est avéré utile sur le plan technologique également. Dans la seconde moitié du XXe siècle, le spin a été exploité pour développer des lasers, expliquer le comportement des supraconducteurs et ouvrir la voie à la construction d'ordinateurs quantiques.

VOIR AU-DELÀ DU SPIN

Mais toutes ces fabuleuses découvertes, applications et explications laissent encore sur la table la question de Goudsmit et Uhlenbeck : qu'est-ce que le spin ? Si les électrons doivent avoir un spin, mais ne peuvent pas tourner, alors d'où vient ce moment angulaire ? La réponse standard est que ce moment est simplement inhérent aux particules subatomiques et ne correspond à aucune notion macroscopique de rotation.

Pourtant, cette réponse n'est pas satisfaisante pour tout le monde. "Je n'ai jamais aimé l'explication du spin donnée dans un cours de mécanique quantique", déclare Charles Sebens, philosophe de la physique à l'Institut de technologie de Californie. On vous le présente et vous vous dites : "C'est étrange. Ils agissent comme s'ils tournaient, mais ils ne tournent pas vraiment ? Je suppose que je peux apprendre à travailler avec ça". Mais c'est étrange."

Récemment, cependant, Sebens a eu une idée. "Dans le cadre de la mécanique quantique, il semble que l'électron ne tourne pas", dit-il. Mais, ajoute-t-il, "la mécanique quantique n'est pas notre meilleure théorie de la nature. La théorie des champs quantiques est une théorie plus profonde et plus précise."

La théorie quantique des champs est l'endroit où le monde quantique des particules subatomiques rencontre l'équation la plus célèbre du monde : E = mc2, qui résume la découverte d'Einstein selon laquelle la matière peut se transformer en énergie et vice versa. (La théorie quantique des champs est également à l'origine du théorème de la statistique du spin). C'est à partir de cette propriété que lorsque des particules subatomiques interagissent, de nouvelles particules sont souvent créées à partir de leur énergie, et les particules existantes peuvent se désintégrer en quelque chose d'autre. La théorie quantique des champs traite ce phénomène en décrivant les particules comme provenant de champs qui imprègnent tout l'espace-temps, même l'espace vide. Ces champs permettent aux particules d'apparaître et de disparaître, conformément aux règles strictes de la relativité restreinte d'Einstein et aux lois probabilistes du monde quantique.

Et ce sont ces champs, selon Sebens, qui pourraient contenir la solution à l'énigme du spin. "L'électron est habituellement considéré comme une particule", explique-t-il. "Mais dans la théorie quantique des champs, pour chaque particule, il existe une façon de la considérer comme un champ." En particulier, l'électron peut être considéré comme une excitation dans un champ quantique connu sous le nom de champ de Dirac, et ce champ pourrait être ce qui porte le spin de l'électron. "Il y a une véritable rotation de l'énergie et de la charge dans le champ de Dirac", dit Sebens. Si c'est là que réside le moment angulaire, le problème d'un électron tournant plus vite que la vitesse de la lumière disparaît ; la région du champ portant le spin de l'électron est bien plus grande que l'électron supposé ponctuel lui-même. Ainsi, selon Sebens, d'une certaine manière, Pauli et Lorentz avaient à moitié raison : il n'y a pas de particule qui tourne. Il y a un champ tournant, et c'est ce champ qui donne naissance aux particules.

UNE QUESTION SANS RÉPONSE ?

Jusqu'à présent, l'idée de Sebens a produit quelques remous, mais pas de vagues. Pour ce qui est de savoir si les électrons tournent, "je ne pense pas qu'il s'agisse d'une question à laquelle on puisse répondre", déclare Mark Srednicki, physicien à l'université de Californie à Santa Barbara. "Nous prenons un concept qui trouve son origine dans le monde ordinaire et nous essayons de l'appliquer à un endroit où il ne s'applique plus vraiment. Je pense donc que ce n'est vraiment qu'une question de choix, de définition ou de goût pour dire que l'électron tourne vraiment." Hans Ohanian, physicien à l'université du Vermont qui a réalisé d'autres travaux sur le spin des électrons, souligne que la version originale de l'idée de Sebens ne fonctionne pas pour l'antimatière.

Mais tous les physiciens ne sont pas aussi dédaigneux. Selon Sean Carroll, physicien à l'université Johns Hopkins et à l'Institut Santa Fe, "la formulation conventionnelle de notre réflexion sur le spin laisse de côté un élément potentiellement important". "Sebens est tout à fait sur la bonne voie, ou du moins fait quelque chose de très, très utile dans le sens où il prend très au sérieux l'aspect champ de la théorie quantique des champs." Mais, souligne Carroll, "les physiciens sont, au fond, des pragmatiques..... Si Sebens a raison à 100 %, les physiciens vous diront : "D'accord, mais qu'est-ce que cela m'apporte ?"

Doreen Fraser, philosophe de la théorie des champs quantiques à l'université de Waterloo, au Canada, se fait l'écho de ce point de vue. "Je suis ouverte à ce projet que Sebens a de vouloir forer plus profondément pour avoir une sorte d'intuition physique pour aller avec le spin", dit-elle. "Vous avez cette belle représentation mathématique ; vous voulez avoir une image physique intuitive pour l'accompagner." En outre, une image physique pourrait également déboucher sur de nouvelles théories ou expériences qui n'ont jamais été réalisées auparavant. "Pour moi, ce serait le test pour savoir si c'est une bonne idée."

Il est trop tôt pour dire si les travaux de M. Sebens porteront ce genre de fruits. Et bien qu'il ait rédigé un article sur la manière de résoudre la préoccupation d'Ohanian concernant l'antimatière, d'autres questions connexes restent en suspens. "Il y a beaucoup de raisons d'aimer" l'idée du champ, dit Sebens. "Je prends cela plus comme un défi que comme un argument massue contre elle."

Auteur: Becker Adam

Info: Scientific American, November 22, 2022

[ approfondissement ]

 

Commentaires: 0

Ajouté à la BD par miguel