Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 94
Temps de recherche: 0.0816s

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

portrait

Considéré comme le fondateur des thérapies brèves, précurseur délibérément en marge des courants institutionnels de la psychologie, Milton Erickson est surtout le créateur d'une technique d'hypnose, qu'il a mise au point en luttant toute sa vie contre sa propre souffrance. Né dans une ferme du Connecticut, il était dyslexique, daltonien, éprouvait des difficultés à reconnaître les sons, et avait été atteint de poliomyélite à l'âge de 17 ans...

Dès 1923, il étudie l'hypnose "à l'ancienne ", qui consiste à plonger les patients dans un état de sommeil profond. Puis il met au point une méthode d'hypnose "éveillée", fondée sur la relation patient thérapeute et sur le respect absolu du sujet.

Jusqu'en 1948, Erickson mène une carrière universitaire et clinique de psychiatre. En raison d'une nouvelle attaque de polio, il se consacre ensuite totalement à sa clientèle privée. En cinquante ans de pratique, il a traité près de 30 000 personnes. Durant toute sa carrière, il n'a jamais écrit d'ouvrage théorique. Seules ses conférences ont été publiées. 

"Nous avons tous des potentialités dont nous ne sommes pas conscients."

S'appuyer sur l'inconscient

Sa conception de l'inconscient diffère considérablement de celle de Freud. Pour Erickson, il n'est pas un "obscur espace de refoulement", mais un "réservoir lumineux", à la fois dépositaire de toutes nos ressources intérieures et véritable force positive capable de nous inspirer des solutions pour résoudre tous nos problèmes. Il ne faut donc pas en avoir peur : il est notre allié le plus solide et le plus fiable. Autonome, possédant ses modes de fonctionnement particuliers, il détient une sagesse propre, et c'est sur celle-ci que l'on peut s'appuyer pour changer de vie ou de comportement. 

Expérimenter l'hypnose

Pour Erickson, l'état d'hypnose est un phénomène physiologique naturel et assez banal, que nous expérimentons chaque jour. Un moment d'inattention, un instant de rêverie, l'immersion dans une lecture passionnante ? Aussitôt que notre attention se déplace en dehors de l' "ici et maintenant", nous sommes dans un état de "transe commune" très similaire à celui de l'hypnose.  Contrairement aux idées reçues, ce n'est pas un état passif, mais actif, pendant lequel peuvent arriver beaucoup de choses. Notamment une communication directe avec notre inconscient, car les limites habituelles de la pensée sont provisoirement suspendues.

Retrouver ses ressources intérieures

Premier thérapeute à mettre en avant le fait que chacun est unique, Erickson était profondément respectueux de l'individu parce qu'il reconnaissait en chaque être humain l'existence de ressources intérieures extraordinaires : l'intuition qui s'éveille au moment où l'on en a besoin, le geste juste qui s'impose à nous sans que nous ayons eu le temps d'y réfléchir. Ces ressources peuvent être découvertes au quotidien et se développent quand on apprend à être plus attentif à ses sensations physiques les plus infimes.

Pratiquer l'autohypnose

Erickson a été le premier à découvrir la technique et l'efficacité de l'autohypnose. Il est en effet possible, après en avoir fait l'apprentissage, d'entrer par soi-même en état de transe légère. On peut alors utiliser une technique "sur mesure" : autosuggestion par des images, de la musique, contrôle de la respiration, focalisation sur une zone du corps. Les applications de l'autohypnose sont très nombreuses : on peut se débarrasser de complexes, travailler sa mémoire ou son élocution, calmer des maux de tête, etc. Pratiquée au quotidien, l'autohypnose est sans effets secondaires

Eveiller son entourage

Dans la communication quotidienne, Erickson suggérait de créer des effets de surprise, des situations particulières, plus éloquentes que des paroles directes. Par exemple, il préconisait des phrases suggestives comme: "Ah, l'odeur de la cuisine provençale !"*, plutôt que d'intimer l'ordre : "Déjeunons dans un restaurant provençal !"

Ces événements "décalés" permettent de désorganiser le schéma mental des personnes qui vivent avec nous, et donc de modifier leur état de conscience pour mieux faire passer notre message. C'est ce qu'il appelait la "dé-potentialisation de la conscience", sans jamais donner de recette toute faite : c'est à chacun de faire preuve de créativité et de développer sa qualité d'écoute de l'autre.

Auteur: Pigani Erik

Info: Psychologies.com. Milton H. Erickson, L'hypnotiseur qui réveille, 17 juin 2015. *exemple de suggestion directe camouflée

[ psychothérapeute ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Des chercheurs de l'Institut de neurosciences de la Timone apportent un éclairage théorique nouveau sur une illusion visuelle découverte dès le début du XXème siècle. Elle restait incomprise alors qu'elle pose des questions fondamentales sur la manière dont notre cerveau représente les évènements dans l'espace et dans le temps. Cette étude parue le 26 janvier 2017 dans la revue PLOS Computational Biology, montre que la solution se situe dans les mécanismes prédictifs intrinsèques aux traitements neuronaux de l'information.
Les illusions visuelles sont toujours aussi populaires: de façon quasi magique, elles peuvent faire apparaitre des objets là où on ne les attend pas... Elles sont aussi d'excellentes occasions de questionner les contraintes de notre système perceptif. De nombreuses illusions sont basées sur le mouvement, comme par exemple, l'illusion du flash retardé. Observez un point lumineux qui se déplace sur une trajectoire rectiligne. Si un second point lumineux est flashé très brièvement juste au dessus du premier, le point en mouvement sera toujours perçu en avant du flash alors que leurs deux positions horizontales sont rigoureusement identiques.
Traiter l'information visuelle prend du temps et même si ces délais sont remarquablement brefs, ils ne sont cependant pas négligeables et le système nerveux doit les compenser. Pour un objet qui se déplace de façon prédictible, le réseau neuronal peut inférer sa position la plus probable en tenant compte de ce délai de traitement. Pour le flash, par contre, cette prédiction ne peut s'établir car son apparition est imprévisible. Ainsi, alors que les deux cibles sont alignées sur la rétine au moment du flash, la position de l'objet en mouvement est anticipée par le cerveau afin de compenser le délai de traitement: c'est ce traitement différencié qui provoque l'illusion du flash retardé.
Les chercheurs montrent que cette hypothèse permet également d'expliquer les cas où cette illusion ne fonctionne pas: par exemple si le flash a lieu à la fin de la trajectoire ou si la cible rebrousse chemin de façon imprévue. Dans ce travail, l'innovation majeure consiste à utiliser la précision de l'information dans la dynamique du modèle. Ainsi, la position corrigée de la cible en mouvement est calculée en combinant le flux sensoriel avec la représentation interne de la trajectoire, toutes deux existant sous la forme de distributions de probabilités. Manipuler la trajectoire revient à changer la précision, et donc le poids relatif de ces deux informations lorsqu'elles sont combinées de façon optimale afin de connaître où se trouve un objet au temps présent. Les chercheurs proposent d'appeler parodiction (du grec ancien paros, le présent) cette nouvelle théorie qui joint inférence Bayesienne et prise en compte des délais neuronaux.
Malgré la simplicité de cette solution, la parodiction comporte des éléments qui peuvent sembler contre-intuitifs. En effet, dans ce modèle, le monde physique environnant est considéré comme "caché", c'est-à-dire qu'il ne peut être deviné que par nos sensations et notre expérience. Le rôle de la perception visuelle est alors de délivrer à notre système nerveux central l'information la plus probable malgré les différentes sources de bruit, d'ambiguïté et de délais temporels.
Selon les auteurs de cette publication, le traitement visuel consisterait en une "simulation" du monde visuel projeté au temps présent, et ceci avant même que l'information visuelle ne puisse effectivement venir moduler cette simulation, la confirmant ou l'infirmant. Cette hypothèse qui semble relever de la "science-fiction" est actuellement testée avec des modèles de réseaux neuronaux hiérarchiques plus détaillés et biologiquement plausibles qui devraient permettre de comprendre encore mieux les mystères sous-jacents à notre perception. Les illusions visuelles n'ont vraiment pas fini de nous étonner !
(Figure: Dans l'illusion visuelle du flash retardé, un point en mouvement (le point rouge, en haut) est perçu en avant par rapport à un point flashé (en vert en bas), même si ils sont alignés verticalement à l'instant du flash. Depuis la découverte de cette illusion, les débats ne sont pas clos quant à l'origine du traitement différencié des deux points. Dans cette étude, il est proposé que ce décalage de position soit dû à un mécanisme prédictif dont le but est normalement de compenser les délais de traitement de l'information visuelle. En utilisant l'information sur le mouvement du point, du début de la trajectoire jusqu'au moment du flash, la position du point est donc "anticipée" pour correspondre au plus près à la position réelle au temps présent.)

Auteur: Internet

Info: PLOS Computational Biology review, 26 janvier 2017

[ vision ]

 

Commentaires: 0

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nano-monde

2 000 atomes existent à deux endroits à la fois dans une expérience quantique sans précédent.

Une expérience a démontré un effet quantique bizarre de l'expérience de la double fente à une nouvelle échelle.

Des molécules géantes peuvent se trouver à deux endroits à la fois, grâce à la physique quantique. Les scientifiques savent depuis longtemps qu'il s'agit d'une vérité théorique fondée sur quelques faits : Chaque particule ou groupe de particules dans l'univers est également une onde - même les grandes particules, même les bactéries, même les êtres humains, même les planètes et les étoiles. Et les ondes occupent plusieurs endroits de l'espace à la fois. Ainsi, tout morceau de matière peut également occuper deux endroits à la fois. Les physiciens appellent ce phénomène "superposition quantique" et, pendant des décennies, ils l'ont démontré en utilisant de petites particules.

Mais ces dernières années, les physiciens ont augmenté l'échelle de leurs expériences, démontrant la superposition quantique en utilisant des particules de plus en plus grandes. Dans un article publié le 23 septembre dans la revue Nature Physics, une équipe internationale de chercheurs a réussi à faire en sorte qu'une molécule composée de 2 000 atomes occupe deux endroits en même temps.

Pour y parvenir, les chercheurs ont construit une version compliquée et modernisée d'une série d'anciennes expériences célèbres qui ont démontré pour la première fois la superposition quantique.

Les chercheurs savaient depuis longtemps que la lumière, envoyée à travers une feuille comportant deux fentes, créait un motif d'interférence, c'est-à-dire une série de franges claires et sombres, sur le mur situé derrière la feuille. Mais la lumière était considérée comme une onde sans masse, et non comme un élément constitué de particules, ce qui n'était donc pas surprenant. Cependant, dans une série d'expériences célèbres réalisées dans les années 1920, les physiciens ont montré que les électrons tirés à travers des films ou des cristaux minces se comportaient de manière similaire, formant des motifs comme la lumière sur le mur derrière le matériau diffractant.

Si les électrons étaient de simples particules, et ne pouvaient donc occuper qu'un seul point de l'espace à la fois, ils formeraient deux bandes, ayant à peu près la forme des fentes, sur le mur derrière le film ou le cristal. Mais au lieu de cela, les électrons frappent cette paroi selon des motifs complexes qui suggèrent que les électrons interfèrent avec eux-mêmes. C'est un signe révélateur d'une onde : à certains endroits, les pics des ondes coïncident, créant des régions plus lumineuses, tandis qu'à d'autres endroits, les pics coïncident avec des creux, de sorte que les deux s'annulent et créent une région sombre. Comme les physiciens savaient déjà que les électrons avaient une masse et étaient définitivement des particules, l'expérience a montré que la matière agit à la fois comme des particules individuelles et comme des ondes. 

Mais c'est une chose de créer un schéma d'interférence avec des électrons. Le faire avec des molécules géantes est beaucoup plus délicat. Les molécules plus grosses produisent des ondes moins faciles à détecter, car les objets plus massifs ont des longueurs d'onde plus courtes qui peuvent donner lieu à des motifs d'interférence à peine perceptibles. Or, ces particules de 2 000 atomes ont des longueurs d'onde inférieures au diamètre d'un seul atome d'hydrogène, de sorte que leur schéma d'interférence est beaucoup moins spectaculaire.

Pour réaliser l'expérience de la double fente sur des objets de grande taille, les chercheurs ont construit une machine capable de projeter un faisceau de molécules (d'énormes objets appelés "oligo-tétraphénylporphyrines enrichies de chaînes fluoroalkylsulfanyles", dont certains ont une masse plus de 25 000 fois supérieure à celle d'un simple atome d'hydrogène) à travers une série de grilles et de feuilles comportant plusieurs fentes. Le faisceau mesurait environ 2 mètres de long. C'est suffisamment grand pour que les chercheurs aient dû tenir compte de facteurs tels que la gravité et la rotation de la Terre dans la conception de l'émetteur du faisceau, expliquent les scientifiques dans leur article. Ils ont également gardé les molécules assez chaudes pour une expérience de physique quantique, et ont donc dû tenir compte de la chaleur qui bouscule les particules.

Pourtant, lorsque les chercheurs ont allumé la machine, les détecteurs situés à l'extrémité du faisceau ont révélé une figure d'interférence. Les molécules occupaient plusieurs points de l'espace à la fois.

C'est un résultat stimulant, disent  les chercheurs, qui prouve l'interférence quantique à des échelles plus grandes que celles qui avaient été détectées auparavant. "La prochaine génération d'expériences sur les ondes de matière permettra des essais à un niveau supérieur", écrivent les auteurs.

De telles démonstrations d'interférence quantique sont donc à venir, même s'il ne sera probablement pas possible de le faire nous-même à travers un interféromètre de sitôt. (Déjà le vide dans la machine nous tuerait.) Nous, les êtres géants, devrons simplement rester assis et regarder les particules s'amuser.

Auteur: Internet

Info: https://www.livescience.com/, Rafi Letzter, 04 octobre 2019

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel

particules élémentaires

Les imprévisibles effets de l'interaction forte continuent de surprendre les physiciens

Après plus d'un siècle de collision de particules, les physiciens ont une assez bonne idée de ce qui se passe au cœur de l'atome. Les électrons bourdonnent dans des nuages probabilistes autour d'un noyau de protons et de neutrons, chacun contenant un trio de particules bizarres appelées quarks. La force qui maintient tous les quarks ensemble pour former le noyau est la force forte, la bien nommée. C'est cette interaction forte qui doit être surmontée pour diviser l'atome. Et cette puissante force lie les quarks ensemble si étroitement qu'aucun quark n'a jamais été repéré en solo.

Ces caractéristiques des quarks, dont beaucoup peuvent être expliquées dans un cours de sciences au lycée, ont été établies comme des faits expérimentaux. Et pourtant, d'un point de vue théorique, les physiciens ne peuvent pas vraiment les expliquer.

Il est vrai qu'il existe une théorie de la force forte, et c'est un joyau de la physique moderne. Elle se nomme chromodynamique quantique (QCD), " chromo " faisant référence à un aspect des quarks appelé poétiquement " couleur ". Entre autres choses, la QCD décrit comment la force forte s'intensifie lorsque les quarks se séparent et s'affaiblit lorsqu'ils se rassemblent, un peu comme une bande élastique. Cette propriété est exactement à l'opposé du comportement de forces plus familières comme le magnétisme, et sa découverte dans les années 1970 a valu des prix Nobel. D'un point de vue mathématique, les quarks ont été largement démystifiés.

Cependant, les mathématiques fonctionnent mieux lorsque la force entre les particules est relativement faible, ce qui laisse beaucoup à désirer d'un point de vue expérimental. Les prédictions de la CDQ furent confirmées de manière spectaculaire lors d'expériences menées dans des collisionneurs qui rapprochèrent suffisamment les quarks pour que la force forte entre eux se relâche. Mais lorsque les quarks sont libres d'être eux-mêmes, comme c'est le cas dans le noyau, ils s'éloignent les uns des autres et exercent des pressions sur leurs liens de confinement, et la force forte devient si puissante que les calculs stylo papier sont mis en échec. Dans ces conditions, les quarks forment des protons, des neutrons et une multitude d'autres particules à deux ou trois quarks, généralement appelées hadrons, mais personne ne peut calculer pourquoi cela se produit.

Pour comprendre les bizarreries dont les quarks sont capables, les physiciens ne peuvent que lancer des simulations numériques de force brute (qui ont fait des progrès remarquables ces dernières années) ou regarder les particules ricocher dans de bonnes expériences de collisionnement à l'ancienne. Ainsi, près de 60 ans après que les physiciens aient formalisé le quark, la particule continue de surprendre.

Quoi de neuf et digne de mention

Pas plus tard que l'été dernier, la collaboration du LHCb au Grand collisionneur de hadrons en Europe a repéré des signes de deux variétés jusqu'alors inédites de quarks, les tétraquarks, furtivement observés à travers les tunnels souterrains du collisionneur. Cataloguer la diversité des comportements des quarks aide les physiciens à affiner leurs modèles pour simplifier les complexités de la force forte en fournissant de nouveaux exemples de phénomènes que la théorie doit rendre compte.

Les tétraquarks ont été découverts pour la première fois au LHC à l'été 2014, après plus d'une décennie d'indices selon lesquels les quarks pourraient former ces quatuors, ainsi que des groupes de deux ou trois. Cette découverte a alimenté un débat qui s'est enflammé malgré une question apparemment ésotérique: faut-il considérer quatre quarks comme une "molécule" formée de deux hadrons doubles quarks faiblement attirés connus sous le nom de mésons, ou s'assemblent-ils en paires plus inhabituelles connues sous le nom de diquarks?

Au cours des années qui suivirent, les physiciens des particules accumulèrent des preuves de l'existence d'une petite ménagerie de tétraquarks exotiques et de " pentaquarks " à cinq quarks. Un groupe se détacha en 2021, un tétraquark " à double charme " qui vécut des milliers de fois plus longtemps que ses frères exotiques (à 12 sextillionièmes de seconde comme le Methuselah). Il a prouvé qu'une variété de quark — le quark charme — pouvait former des paires plus résistantes que la plupart des suppositions ou des calculs minutieux l'avaient prédit.

À peu près à la même époque, les chercheurs ont mis au point une nouvelle façon de tamiser le maelström qui suit une collision proton-proton à la recherche d'indices de rencontres fortuites entre des composites de quarks. Ces brefs rendez-vous permettent de déterminer si un couple donné de hadrons attire ou repousse, une prédiction hors de portée du QCD. En 2021, les physiciens ont utilisé cette technique de "femtoscopie" pour apprendre ce qui se passe lorsqu'un proton s'approche d'une paire de quarks " étranges ". Cette découverte pourrait améliorer les théories sur ce qui se passe à l'intérieur des étoiles à neutrons.

L'année dernière, les physiciens ont appris que même les quarks de l'atome d'hélium, très étudié, cachent des secrets. Les atomes d'hélium dénudés ont inauguré le domaine de la physique nucléaire en 1909, lorsque Ernest Rutherford (ou plutôt ses jeunes collaborateurs) les projeta sur une feuille d'or et découvrit le noyau. Aujourd'hui, les atomes d'hélium sont devenus la cible de projectiles encore plus petits. Au début de l'année 2023, une équipe a tiré un flux d'électrons sur des noyaux d'hélium (composés de deux protons et de deux neutrons) et a été déconcertée de constater que les cibles remplies de quarks gonflaient bien plus que ce que la CDQ leur avait laissé supposer.








Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 19 fev 2024

[ fermions ] [ bosons ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

portrait

Maryam Mirzakhani était mathématicienne, mais elle oeuvrait  comme une artiste, toujours en train de dessiner. Elle aimait s'accroupir sur le sol avec de grandes feuilles de papier, les remplissant de gribouillages : figures florales répétées et corps bulbeux et caoutchouteux, leurs appendices coupés proprement, comme les habitants d'un dessin animé, égarés,  de Miyazaki. L’un de ses étudiants diplômés de l’Université de Stanford a déclaré que Mirzakhani décrivait les problèmes mathématiques non pas comme des énigmes logiques intimidantes mais comme des tableaux animés. "C'est presque comme si elle avait une fenêtre sur le paysage mathématique et qu'elle essayait de décrire comment les choses qui y vivaient interagissaient les unes avec les autres", explique Jenya Sapir, aujourd'hui professeure adjointe à l'Université de Binghamton. "Pour elle, tout arrive en même temps."

Mirzakhani a grandi à Téhéran avec le rêve de devenir écrivain. En sixième année, elle a commencé à Farzanegan, une école pour les filles les plus douées de la ville, et a obtenu les meilleures notes dans toutes ses classes, à l'exception des mathématiques. Vers la fin de l'année scolaire, l'instructeur lui a rendu un test de mathématiques noté 16 sur 20, et Mirzakhani l'a déchiré et a fourré les morceaux dans son sac. Elle a dit à une amie qu’elle en avait assez en mathématiques : " Je ne vais même pas essayer de faire mieux. " Mirzakhani, cependant, était constitutionnellement incapable de ne pas essayer, et elle tomba bientôt amoureuse de la poésie épurée du sujet. Alors qu'elle était au lycée, elle et sa meilleure amie, Roya Beheshti, sont devenues les premières femmes iraniennes à se qualifier pour l'Olympiade internationale de mathématiques, et l'année suivante, en 1995, Mirzakhani a remporté une médaille d'or avec un score parfait.

Mirzakhani a déménagé aux États-Unis à l'automne 1999 pour poursuivre ses études supérieures à Harvard. Sa passion était la géométrie et elle était particulièrement attirée par les " surfaces hyperboliques ", qui ont la forme de chips Pringles. Elle a exploré un univers extrême dans son abstraction – avec des " espaces de modules ", où chaque point représente une surface – et des dimensions qui dépassent les nôtres. D'une manière ou d'une autre, Mirzakhani était capable d'évoquer des aspects de tels espaces à considérer, en griffonnant sur une feuille de papier blanc pour essayer une idée, s'en souvenir ou en rechercher une nouvelle ; ce n'est que plus tard qu'elle transcrira ses aventures dans les symboles conventionnels des mathématiques. "on ne veut pas écrire tous les détails ", a-t-elle dit un jour à un journaliste. "Mais le processus du dessin de quelque chose vous aide d'une manière ou d'une autre à rester connecté." Son doctorat : thèse commencée en dénombrant des boucles simples sur des surfaces, a conduit à un calcul du volume total des espaces de modules. Cela a permis à la jeune chercheuse de publier trois articles distincts dans des revues mathématiques de premier plan, dont l'un contenait une nouvelle preuve surprenante de la célèbre " conjecture de Witten ", une étape importante dans la physique théorique reliant les mathématiques et la gravité quantique. Les mathématiques de Mirzakhani sont appréciées pour leurs grands sauts créatifs, pour les liens qu'elles ont révélés entre des domaines éloignés, pour leur sens de la grandeur.

Lorsque Jan Vondrak, qui deviendra son mari, la rencontre en 2003, il ne savait pas, dit-il, qu'" elle était une superstar ". Mirzakhani terminait ses études à Harvard et Vondrak, aujourd'hui professeur de mathématiques à Stanford, étudiait au MIT ; ils se sont rencontrés lors d'une fête, chacun reconnaissant une âme sœur qui n'aimait pas particulièrement les fêtes. Vondrak l'a initiée au jazz et les deux ont fait de longues courses le long de la rivière Charles. Mirzakhani était à la fois modeste – Vondrak a appris de ses nombreuses réalisations grâce à des amis communs – et extrêmement ambitieuse. Vondrak se souvient de ses rêves de découvertes futures dans l'espace des modules, mais aussi de sa détermination à explorer des domaines plus lointains, comme la théorie des nombres, la combinatoire et la " théorie ergodique ". Elle avait, selon Vondrak, " 100 ans de projets ".

Il y a trois ans, Mirzakhani, 37 ans, est devenue la première femme à remporter la médaille Fields, le prix Nobel de mathématiques. La nouvelle de cette récompense et le symbolisme évident (première femme, première Iranienne, immigrante d'un pays musulman) la troublaient. Elle fut très perplexe lorsqu’elle a découvert que certaines personnes pensaient que les mathématiques n’étaient pas pour les femmes – ce n’était pas une idée qu’elle ou ses amis avaient rencontrée en grandissant en Iran – mais elle n’était pas encline, de par sa personnalité, à dire aux autres quoi penser. À mesure qu’elle devenait une célébrité parmi les Iraniens, les gens l’approchaient pour lui demander une photo, ce qu’elle détestait. La médaille Fields a également été annoncée alors qu'elle venait de terminer un traitement épuisant contre le cancer du sein.

En 2016, le cancer est réapparu, se propageant au foie et aux os de Mirzakhani. Tous ceux qui ont connu Mirzakhani la décrivent comme étant d’un optimisme inébranlable ; ils quittaient toujours les conversations avec un sentiment d'énergie. Mais finalement, il est devenu impossible pour Mirzakhani de continuer ce que sa jeune fille, Anahita, appelait sa " peinture ". Lors d'un service commémoratif à Stanford, Curtis McMullen, directeur de thèse de Mirzakhani et président du département de mathématiques de Harvard, a déclaré que lorsqu'elle était étudiante, elle venait à son bureau et posait des questions qui étaient " comme des histoires de science-fiction ", des scènes vivantes qu'elle avait entrevues. dans un coin inexploré de l’univers mathématique – des structures étranges et des motifs séduisants, tous en mouvement et interconnectés. Puis elle le regardait de ses yeux bleu-gris. " Est ce bien? " demanderait-elle, comme s'il pouvait connaître la réponse.

Auteur: Internet

Info: Nytimes, by Gareth Cook, 2017

[ syntropie ] [ visualisation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

topologie abstraite

Des surfaces au-delà de l'imagination sont découvertes après des décennies de recherche

Grâce à des idées empruntées à la théorie des graphes, deux mathématiciens ont montré que des surfaces extrêmement complexes sont faciles à parcourir.

En juillet dernier, deux mathématiciens de l'Université de Durham, Will Hide et Michael Magee , ont confirmé l'existence d'une séquence de surfaces très recherchée : chacune plus compliquée que la précédente, devenant finalement si étroitement liée à elles-mêmes qu'elles atteignent presque les limites de ce qui est possible. possible.

Au début, il n’était pas évident que ces surfaces existaient. Mais depuis que la question de leur existence s’est posée pour la première fois dans les années 1980, les mathématiciens ont compris que ces surfaces pouvaient en réalité être courantes, même si elles sont extrêmement difficiles à identifier – un exemple parfait de la façon dont les mathématiques peuvent renverser l’intuition humaine. Ce nouveau travail constitue un pas en avant dans une quête visant à aller au-delà de l’intuition pour comprendre les innombrables façons dont les surfaces peuvent se manifester.

"C'est un brillant morceau de mathématiques", a déclaré Peter Sarnak , mathématicien à l'Institute for Advanced Study de Princeton, New Jersey.

Les surfaces comprennent toutes sortes d’objets bidimensionnels : l’enveloppe extérieure d’une sphère, d’un beignet ou d’un cylindre ; une bande de Möbius. Ils sont essentiels aux mathématiques et à la physique. Mais même si la relation des mathématiciens avec les surfaces remonte à plusieurs siècles, ils ne connaissent pas du tout ces objets.

Les surfaces simples ne sont pas le problème. Simple dans ce cas signifie que la surface a un petit nombre de trous, ou un faible " genre ". Une sphère, par exemple, n'a pas de trous et a donc un genre nul ; un beignet en a un.

Mais lorsque le genre est élevé, l’intuition nous fait défaut. Lorsqu'Alex Wright , mathématicien à l'Université du Michigan, tente de visualiser une surface de haut genre, il se retrouve avec des trous disposés en rangée bien rangée. " Si vous vouliez que je sois un peu plus créatif, je pourrais l'enrouler en un cercle avec de nombreux trous. Et j’aurais du mal à imaginer une image mentale fondamentalement différente de celle-là ", a-t-il déclaré. Mais sur les surfaces de grande qualité, les trous se chevauchent de manière complexe, ce qui les rend difficiles à saisir. Une simple approximation est " aussi loin d’être représentative qu’elle pourrait l’être, dans tous les sens du terme ", a déclaré Wright.

Cette lutte était prévisible, a déclaré Laura Monk , mathématicienne à l'Université de Bristol. " On peut souvent faire des choses qui ne sont pas bonnes. Cependant, créer des choses qui sont bonnes, qui ressemblent à ce que nous attendons généralement d’être vrai, est un peu plus difficile ", a-t-elle déclaré.

Cela signifie que les mathématiciens souhaitant vraiment comprendre l’espace des surfaces doivent trouver des moyens de découvrir des objets dont ils ignorent même l’existence.

C’est exactement ce qu’ont fait Hide et Magee dans leur article de juillet, confirmant l’existence de surfaces sur lesquelles les mathématiciens s’interrogeaient depuis des décennies. La conjecture qu’ils ont prouvée et l’histoire qui l’entoure s’inspirent d’un tout autre domaine des mathématiques : la théorie des graphes.

Le maximum possible

Pour les mathématiciens, les graphiques sont des réseaux constitués de points ou de nœuds reliés par des lignes ou des arêtes. Dès 1967, des mathématiciens comme Andrey Kolmogorov étudiaient des réseaux qui imposaient un coût à la connexion de deux nœuds. Cela a conduit à un exemple de ce que l’on appellera plus tard un graphe d’expansion : un graphe qui maintient le nombre d’arêtes à un faible niveau, tout en maintenant une connectivité élevée entre les nœuds.

Les graphiques expanseurs sont depuis devenus des outils cruciaux en mathématiques et en informatique, y compris dans des domaines pratiques comme la cryptographie. À l’instar d’un système routier bien conçu, ces graphiques facilitent le déplacement d’un nœud à un autre sans couvrir l’intégralité du graphique avec des arêtes. Les mathématiciens aiment limiter le nombre d’arêtes en stipulant que chaque nœud ne peut avoir, disons, que trois arêtes en émanant – tout comme vous ne voudriez peut-être pas plus de quelques autoroutes sillonnant votre ville.

Si un ordinateur choisit au hasard où mènent les trois arêtes de chaque nœud, vous constaterez que, surtout lorsque le graphique est très grand, la plupart de ces graphiques aléatoires sont d'excellents expanseurs. Mais bien que l’univers soit rempli de graphiques d’expansion, les êtres humains ont échoué à maintes reprises à les produire à la main.

"Si vous voulez en construire un, vous ne devriez pas les dessiner vous-même", a déclaré Shai Evra , mathématicien à l'Université hébraïque de Jérusalem. "Notre imagination ne comprend pas ce qu'est un expanseur."

L’idée d’expansion, ou de connectivité, peut être mesurée de plusieurs manières. La première consiste à couper un graphique en deux gros morceaux en coupant les bords un par un. Si votre graphique est constitué de deux groupes de nœuds, les groupes étant reliés par une seule arête, il vous suffit de couper une seule arête pour la diviser en deux. Plus le graphique est connecté, plus vous devrez découper d'arêtes.

Une autre façon d’accéder à la connectivité consiste à parcourir le graphique de nœud en nœud, en choisissant à chaque étape une arête sur laquelle marcher au hasard. Combien de temps faudra-t-il pour visiter tous les quartiers du graphique ? Dans l'exemple avec les deux amas, vous serez confiné à l'une des bulles à moins que vous ne traversiez la seule connexion avec l'autre moitié. Mais s’il existe de nombreuses façons de voyager entre les différentes zones du graphique, vous parcourrez l’ensemble en peu de temps.

Ces mesures de connectivité peuvent être quantifiées par un nombre appelé écart spectral. L'écart spectral est nul lorsque le graphe est complètement déconnecté, par exemple s'il est composé de deux groupes de nœuds qui ne sont pas du tout attachés l'un à l'autre. À mesure qu’un graphe devient plus connecté, son écart spectral aura tendance à s’élargir.

Mais l’écart spectral ne peut aller que jusqu’à un certain point. En effet, les deux caractéristiques déterminantes des graphes d’expansion – peu d’arêtes et une connectivité élevée – sont apparemment en contradiction l’une avec l’autre. Mais en 1988, Gregory Margulis et, indépendamment, Sarnak et deux co-auteurs ont décrit des " expanseurs optimaux " – des graphiques dont l’écart spectral est aussi élevé que le maximum théorique. " C'est choquant qu'ils existent ", a déclaré Sarnak.

Plus tard, les mathématiciens prouveront que la plupart des grands graphes sont proches de ce maximum. Mais le travail avec les expanseurs optimaux et les graphiques aléatoires ne consistait pas simplement à trouver les bons endroits pour placer les arêtes. Cela nécessitait le recours à des techniques étranges et sophistiquées empruntées à la théorie des nombres et des probabilités.

Auteur: Internet

Info: https://www.quantamagazine.org/ - Leila Sloman, 2 juin 2022

[ . ]

 
Commentaires: 1
Ajouté à la BD par miguel