Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.0337s

ânerie

"Et elles avaient pour roi l'ange de l'abîme, appelé en hébreu Abaddon et en grec Apollyon, et en latin Exterminatus."...

Quel est cet ange de l'abîme appelé Abaddon, Apollyon, Exterminateur ? Ne reconnaissez-vous pas Napoléon ? N'est-il pas ici désigné presque par son propre nom ?

Auteur: Wurtz Jean-Wendel

Info: in "L'Apollyon de l'Apocalypse ou la Révolution française prédite par saint Jean", 1816 - cité dans le "Dictionnaire de la Bêtise", éd. Robert Laffont, p. 294

[ approximation ] [ citation ] [ prédiction ] [ histoire ]

 
Commentaires: 3
Ajouté à la BD par Benslama

cosmologie

Notre détecteur de nouvelle physique par réseau neuronal (NNPhD) à automatiquement découvert Neptune à partir de données sur l'orbite d'Uranus. Il décèle aussi le rayonnement gravitationnel à partir de données sur les étoiles à neutrons. Le Machine Learning a un grand potentiel pour la recherche en physique ! 

(La conservation de l'énergie est un principe de base de la physique. Sa rupture implique souvent une nouvelle physique. Cet article présente une méthode de découverte de "nouvelle physique" basée sur des données. Plus précisément : étant donnée une trajectoire régie par des forces inconnues, notre détecteur neuronal de nouvelle physique (NNPhD) vise à déceler une nouvelle physique en décomposant le champ de force en composantes conservatives et non conservatives,  représentées respectivement par un réseau neuronal lagrangien (LNN) et un réseau neuronal sans contrainte, entraînés à minimiser l'erreur de récupération de force, plus une constante de  λ  fois la magnitude de la force non-conservatrice prédite. Nous montrons qu'une transition de phase se produit à   λ  =  1, de manière universelle pour des forces arbitraires. Nous démontrons que la NNPhD détecte avec succès une nouvelle physique via de ludiques expériences numériques, redécouvrant la friction à partir d'un double pendule amorti, Neptune à partir de l'orbite d'Uranus, et les ondes gravitationnelles à partir d'une orbite en spirale. Nous montrons également comment le NNPhD couplé à un intégrateur surpasse à la fois un LNN et un réseau neuronal sans contrainte, pour ce qui est de prédire l'avenir d'un double pendule amorti.)

Auteur: Tegmark Max

Info: Sur son fil FB, 24 déc 2021. En collaboration avec Ziming Liu, Bohan Wang, Qi Meng, Wei Chen et Tie-Yan Liu. Phys. Rev. E 104, 055302

[ pesanteur ] [ interactions ]

 

Commentaires: 0

Ajouté à la BD par miguel

solipsisme

Je te souhaite bonne chance, explorateur, mais je me demande : Subiras-tu le même sort que moi ? Je ne puis qu'imaginer que ce devrait être le cas, que ce tropisme vers l'équilibre n'est pas une caractéristique propre à notre univers mais inhérente à tous. Peut-être n'est-ce que limite de ma pensée, et que votre peuple a découvert un principe de contraintes qui soit vraiment éternel. Mais mes spéculations sont suffisamment fantaisistes comme ça. Je suppose qu'un jour vos pensées cesseront pareillement, bien que je ne puisse imaginer quand cela arrivera. Vos vies se termineront comme les nôtres, comme celles de tout le monde. Peu importe le temps que cela prendra, vous finirez par atteindre l'équilibre. J'espère que vous n'êtes pas attristés par cette prise de conscience. J'espère que votre expédition n'était pas que la simple exploration d'autres univers dans le but de s'en servir. J'espère que vous étiez motivés par un désir de connaissance, une envie de voir ce qui peut naître de la combustion d'un univers. Car même si la durée de vie d'un univers est calculable, la variété de la vie qui y est générée ne l'est pas. Les bâtiments que nous avons érigés, l'art, la musique et les vers que nous avons composés, les vies mêmes que nous avons menées : aucune d'entre elles n'aurait pu être prédite, car aucune n'était prévisible. Notre Univers aurait pu parvenir à l'équilibre et ne plus émettre qu'un léger murmure. Le fait qu'il ait engendré pareille plénitude est un miracle, qui n'a d'égal que l'univers qui t'a engendré.

Auteur: Chiang Ted

Info: Exhalation (Expiration)

[ soi univers ] [ ego hologramme ] [ zoom arrière ] [ dézoomage ]

 

Commentaires: 0

Ajouté à la BD par miguel

singularités

Bien que le concept d'inconscient collectif de Jung ait eu un impact énorme sur la psychologie et soit désormais adopté par des milliers de psychologues et de psychiatres, notre compréhension actuelle de l'univers ne fournit aucun mécanisme permettant d'expliquer son existence. L'interconnexion de toutes les choses prédite par le modèle holographique offre toutefois une certaine explication. Dans un univers où toutes les choses sont interconnectées à l'infini, toutes les consciences sont également interconnectées. Malgré les apparences, nous sommes des êtres sans frontières. Ou, comme le dit Bohm, "au fond, la conscience de l'humanité est une. "

Si chacun d'entre nous a accès au savoir inconscient de toute la race humaine, pourquoi ne sommes-nous pas tous des encyclopédies ambulantes ? Le psychologue Robert M. Anderson Jr, de l'Institut polytechnique Rensselaer de Troy dans l'État de New York, pense que c'est parce que nous ne sommes capables de puiser dans l'ordre implicite que les informations directement en adéquation avec nos souvenirs. Anderson appelle ce processus sélectif "résonance personnelle" et le compare a un diapason qui n'entre n'entre en résonance (ou ne déclenche une vibration) avec un autre diapason que si ce dernier possède quelque structure, forme ou taille similaires. "Du à  la résonance personnelle, une part assez faible de la variété presque infinie d'images de la structure holographique implicite de l'univers est accessible à la conscience personnelle d'un individu", explique Anderson. "Ainsi, lorsque certaines personnes éveillées ont pu entrevoir cette conscience unitive il y a des siècles, elles n'ont pas rédigé la théorie de la relativité à cause d'un contrexte trop différent de celui dans lequel Einstein a étudié la physique."

Auteur: Talbot Michael Coleman

Info: The Holographic Universe

[ individus ] [ carcan anthropocentrique ] [ collectifs syntonisés ]

 
Commentaires: 2
Ajouté à la BD par miguel

nature

Pourquoi les espèces voisines ne mangent pas la même chose
Les espèces voisines consomment moins souvent les mêmes ressources que les espèces plus distantes. En effet, c'est la compétition pour les ressources, et non leur apparentement qui détermine les sources de nourriture des espèces d'une communauté. Sous l'effet de cette compétition, les espèces proches se sont spécialisées sur des ressources alimentaires différentes. Telle est la conclusion d'une étude menée par des chercheurs du CNRS, du Muséum national d'Histoire naturelle et de l'Université d'Exeter (Royaume-Uni). Ces travaux ont été obtenus en étudiant avec un niveau de détail hors du commun les interactions trophiques entre espèces au sein d'une prairie anglaise. Publiés le 20 juin 2013 dans la revue Current Biology, ils permettent de mieux appréhender l'évolution des communautés écologiques à l'heure où certaines sont bousculées par le changement climatique et l'arrivée d'espèces invasives.
En écologie, le paradigme actuel considère que les relations de parenté entre espèces détermine l'identité des partenaires avec lesquels les espèces interagissent: plus les espèces sont apparentées, plus elles ont de chances d'interagir avec les mêmes partenaires. Ainsi, d'après cette idée, deux espèces voisines devraient partager les mêmes prédateurs et les mêmes proies. Les récents travaux d'une équipe de chercheurs du CNRS, du Muséum national d'Histoire naturelle et de l'Université d'Exeter montrent que ceci n'est pas forcément exact. Pour la première fois, les scientifiques révèlent que si l'apparentement entre espèces détermine bien par qui les espèces sont mangées, c'est la compétition pour les ressources, et non le degré de parenté, qui détermine de quoi les espèces se nourrissent.
Pour arriver à cette conclusion, ils ont utilisé une série d'observations menées pendant plus de dix ans dans une prairie du sud-est de l'Angleterre. Réalisées avec un degré de détail extraordinaire, ces observations ont permis d'établir les interactions entre une centaine d'espèces situées sur quatre niveaux trophiques: des plantes (23 espèces), des pucerons se nourrissant de celles-ci (25 espèces), des guêpes qui pondent leurs oeufs dans le corps des pucerons (22 espèces), et d'autres guêpes qui pondent leurs oeufs dans les larves des guêpes précédentes au sein des pucerons (26 espèces).
Les chercheurs ont montré que deux espèces voisines de puceron par exemple, sont généralement la proie des mêmes espèces de guêpe. C'est donc bien l'apparentement des espèces qui détermine l'identité de leurs prédateurs. En revanche, ces deux espèces de pucerons voisines ne se nourrissent pas forcément des mêmes plantes. En remontant la chaîne alimentaire, les scientifiques ont observé que les guêpes les plus apparentées avaient peu de chances de se nourrir des mêmes espèces de pucerons. Ceci s'explique par le fait que sous la pression de la compétition pour les sources de nourriture, les espèces voisines diversifient leur alimentation, ce qui a pour effet de réduire la compétition. Obtenir cette conclusion a été possible grâce au niveau de détail des observations réalisées, permettant de révéler les dynamiques d'échelle très locale.
À l'heure où le réchauffement climatique déséquilibre les communautés et où de nombreuses espèces envahissent des écosystèmes auxquels elles étaient étrangères, ces conclusions sont à prendre en compte si l'on veut prédire les nouvelles interactions qui résulteront de ces changements. En effet, ces résultats montrent que les ressources consommées par une espèce qui intègre la communauté ne peuvent pas être prédites par ses relations de parenté avec les espèces déjà présentes.

Auteur: Internet

Info: Dirk Sanders

[ équilibre ] [ harmonie ] [ adaptation ]

 

Commentaires: 0

communisme

Les théories de Marx sont assez bien connues pour ne nécessiter qu’un résumé. Il commence par définir la valeur des marchandises en tant que fonction du travail nécessaire pour les produire. Ce travail, source de la dignité du travailleur, est la seule marchandise qu’il puisse vendre. Une fois que le capitaliste a acheté assez de travail pour satisfaire ses propres besoins, il exploite le travailleur – par l’oppression directe ou par les améliorations indirectes de la productivité – pour en tirer un profit. Ce profit s’accumule, rendant les capitalistes de plus en plus puissants, jusqu’à ce que la classe moyenne ait été absorbée dans la classe des travailleurs, et que toute cette masse misérable et dégradée se révolte et engendre le socialisme. Pour Marx, ce processus était à la fois nécessaire et inévitable, et c’est pourquoi il vantait le capitalisme et l’État bourgeois, dont il pensait qu’ils préparaient les conditions pour le mode de production supérieur du socialisme. C’est aussi la raison pour laquelle il vouait un culte à la production elle-même, la machinerie de la société, à laquelle il estimait que l’homme devait se soumettre jusqu’au jour où elle cesserait de le détruire. Ensuite, selon Marx, tous les antagonismes sociaux se seraient magiquement arrêtés.

[...]

Pour Marx, l’histoire était une machine téléologique, ou orientée vers la finalité, visant à une société sans classe à laquelle les divers antagonismes que renferme la société devaient inévitablement aboutir. Un tel paradis n’était pas fondamentalement différent du paradis judéo-chrétien standard, promis, mais constamment différé, qu’il rejetait. À cette fin, Marx vantait continuellement le développement du capitalisme – même s’il aboutissait à l’extrême déchéance des travailleurs. Marx défendait l’insistance de David Ricardo sur la production pour la production, sans considération pour l’humanité, comme étant "absolument juste". Suivant le nationalisme quasi fasciste de Hegel, pour qui l’individu était un moyen "subordonné" et consommable au service d’une fin étatique, il a fait l’éloge du saccage de l’Inde par l’Angleterre, écrivant dans son essai "La domination britannique en Inde" que l’empire anglais était "l’outil inconscient de l’histoire" et que nous pouvions regretter les crimes des Britanniques ou l’effondrement d’un empire ancien, mais que nous avions la consolation de savoir que cette torture grotesque finirait par "nous apporter un plaisir plus grand". Il était pareillement sanguinaire concernant la colonisation des États-Unis par l’Europe. De tels événements étaient des étapes nécessaires dans le processus historique linéaire, soumis à des lois, envers lequel il était engagé.

[...]

ce qui se passe en réalité ne correspond simplement pas aux prédictions de Marx. Par exemple, il avait la conviction que la paupérisation du prolétariat l’amènerait à se révolter contre l’oppression capitaliste. Pour autant que nous le sachions, cela n’a pas eu lieu et ne s’annonce pas ; l’homme intègre le monde capitaliste dans un état de soumission qui ne fait qu’empirer tandis que la pauvreté l’abrutit et l’affaiblit (particulièrement dans le tiers-monde), que le professionnalisme l’estropie et le désoriente, que la technologie le domestique, le distrait et l’endort avec les compensations qui lui sont offertes par l’État providence – un mécanisme quasi socialiste qui résonne parfaitement avec l’autoreproduction du capitalisme.

[...]

Nous nous trouvons maintenant dans l’impasse que Bakounine avait prédite et vers laquelle Marx et ses nombreux disciples nous ont dirigés, où ceux qui nous oppriment ne sont plus principalement les rois ou les capitalistes, mais les experts professionnels et techniques, et l’ahurissante supermachine qu’ils dirigent. Le pouvoir militaire et le pouvoir usufruitier des rois et des capitalistes existent toujours, mais ils ont été supplantés par le pouvoir de gestion des techniciens (qui, comme l’a démontré leur acceptation universelle des confinements et de la dernière phase biofasciste du système, sont aussi heureux que l’étaient les capitalistes et les rois de voir les classes ouvrières brutalement disciplinées) et le pouvoir d’absorption de la réalité de l’inculture virtuelle et du monde construit pour la servir.

Tout cela explique pourquoi Marx méprisait la classe sociale la moins touchée par l’industrialisation, à savoir la paysannerie. Marx (comme Platon) n’avait aucun intérêt pour les leçons que la nature sauvage pouvait offrir à l’homme, et préconisait en réalité la fin de la production rurale à petite échelle. Il souhaitait qu’on applique à l’agriculture "les méthodes modernes, telles que l’irrigation, le drainage, le labourage à la vapeur, le traitement chimique et ainsi de suite…" et qu’on cultive la terre "à grande échelle", dans ce que nous appellerions aujourd’hui une ferme "monoculturale". En fin de compte, l’extermination de la nature biodiverse et des vies conscientes de ceux qu’elle nourrissait ne le concernait pas vraiment, comme elle ne concerne pas ceux qui, malgré leur pompeuse rhétorique "écoresponsable", sont toujours engagés dans la destruction de l’autosuffisance et de l’indépendance rurale.

Auteur: Allen Darren

Info: https://expressiveegg.org/2022/11/05/adieu-monsieur-marx/

[ critique ] [ historique ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

physique fondamentale

Pourquoi les particules qui collisionnent révèlent la réalité 

Une grande partie de ce que les physiciens savent des lois fondamentales de la nature vient de la construction de machines destinées à écraser les particules entre elles.

Les physiciens ont commencé à développer des collisionneurs de particules à la suite de révélations selon lesquelles l’univers ne se résume pas à des atomes. Ernest Rutherford a perçu l'intérieur de l'atome lors de l'une des premières expériences de proto-collisionneur en 1909. Lui et son élève ont placé une matière radioactive derrière un bouclier en plomb percé d'un trou, de sorte qu'un flux de particules alpha (maintenant connues sous le nom de noyaux d'hélium) ) puisse passer à travers le trou. Lorsqu’ils ont projeté ce faisceau de particules sur une fine feuille d’or, ils ont observé qu’une particule sur 20 000 rebondissait directement vers l’arrière. Rutherford l'a comparé à un obus d'artillerie qui se refléterait sur une feuille de papier de soie. Les physiciens avaient découvert que les atomes d'or étaient pour la plupart constitués d'espace vide, mais que les particules alpha se dispersaient occasionnellement hors des noyaux denses et chargés positivement des atomes.

Deux des étudiants de Rutherford, John Cockcroft et Ernest Walton, ont ensuite assemblé et exploité le premier véritable collisionneur de particules en 1932. Ils ont utilisé un champ électrique pour accélérer les protons et les transformer en atomes de lithium avec suffisamment d'énergie pour briser les atomes de lithium en deux, divisant l'atome pour la première fois.

Au cours des décennies suivantes, les physiciens ont construit un défilé de collisionneurs de particules de plus en plus performants. Ils ont augmenté la densité des particules du projectile, ajouté des aimants supraconducteurs pour mieux les diriger et se sont offert plus de pistes en concevant des collisionneurs circulaires. Pour produire des feux d’artifice plus violents, ils ont brisé des faisceaux de particules circulant dans des directions opposées.

De nombreuses innovations technologiques visaient à produire des collisions à plus haute énergie pour générer des variétés de particules plus riches. Toute la matière que vous avez vue ou touchée est composée de seulement trois particules légères et fondamentales : des électrons et deux types de quarks. La nature laisse aussi entrevoir l'existence de plus d'une douzaine de particules élémentaires plus lourdes, mais seulement pour un instant, avant qu'elles ne se transforment en particules légères et stables. Pour savoir quelles particules massives peuvent exister, les physiciens exploitent l'interchangeabilité de la matière et de l'énergie découverte par Albert Einstein, exprimée dans sa célèbre équation E = mc 2. En générant des collisions plus énergétiques, ils virent émerger des particules plus lourdes.

Une autre façon de voir les choses est que les collisions à haute énergie s’enfoncent plus profondément dans le monde subatomique. Toutes les particules quantiques ont des propriétés ondulatoires, telles que les longueurs d'onde. Et leurs longueurs d’onde déterminent ce avec quoi ils peuvent interagir. Les ondes sonores peuvent contourner les murs parce qu'elles mesurent des mètres en longueur, par exemple, tandis que les ondes lumineuses sont arrêtées par tout ce qui est plus grand que leur longueur d'onde de quelques centaines de nanomètres. Les ondes incroyablement minuscules impliquées dans les collisions à haute énergie sont sensibles à des obstacles quantiques tout aussi minuscules. De cette manière, les énergies plus élevées permettent aux physiciens d’explorer les règles de la réalité à des échelles de plus en plus petites.

Suivant l’exemple de Rutherford et de ses étudiants, les chercheurs ont continué leurs explorations à un rythme effréné. L'énergie des collisions de particules a augmenté de 10 fois tous les six à huit ans pendant la majeure partie d'un siècle, ce qui correspond presque au rythme de la loi de Moore pour les puces informatiques. Ces progrès ont culminé avec la construction du Grand collisionneur de hadrons (LHC) en Europe, une piste souterraine circulaire de 27 kilomètres de circonférence qui écrase des protons à des énergies environ 20 millions de fois supérieures à celles utilisées par Cockcroft et Walton pour diviser l'atome. C’est au LHC en 2012 que les physiciens ont découvert le boson de Higgs, une particule lourde qui donne de la masse à d’autres particules fondamentales. Le Higgs était la dernière pièce manquante du modèle standard de la physique des particules, un ensemble d'équations qui rend compte de toutes les particules élémentaires connues et de leurs interactions. 

Quoi de neuf et remarquable

Le LHC, qui a entamé une nouvelle période d'exploitation de six mois en avril, a consolidé le modèle standard avec la découverte du boson de Higgs. Mais ce qui n'a pas été découvert a laissé le domaine en crise. Pendant des décennies, de nombreux théoriciens des particules ont espéré qu'une nouvelle " supersymétrie “ entre les particules de matière et les particules de force serait observée afin de résoudre une énigme appelée " problème de la hiérarchie ", et aider ainsi à relier les forces quantiques et fournir un candidat pour les particules de ” matière noire » qui maintiennent les galaxies ensemble.

Mais le LHC n’a vu aucun signe des particules prédites par la supersymétrie et, en 2016, les partisans de la théorie ont reconnu que notre univers n’est pas supersymétrique comme ils le pensaient simplement. La même année, l'évocation d'une nouvelle particule s'est avérée être un mirage statistique, et les physiciens ont dû se rendre compte que le LHC ne découvrirait probablement aucun nouveau phénomène au-delà des particules du modèle standard - une situation parfois appelée "scénario du cauchemar" .

Sans indices indiquant l’existence de particules plus lourdes qui pourraient être évoquées dans des collisions à plus haute énergie, il est difficile de justifier la construction d’un autre collisionneur de particules encore plus grand, de plusieurs milliards de dollars. Certains insistent sur le fait que cela en vaut la peine, car il reste encore beaucoup à étudier sur le boson de Higgs, qui pourrait contenir des indices sur d'éventuelles entités plus lourdes situées hors de portée du LHC. Mais aucun indice - ni aucune entité - de cette nature n'est garanti.

Une proposition visant à construire un collisionneur de nouvelle génération au Japon est au point mort. L'Europe réfléchit à un successeur du LHC de 100 kilomètres, mais s'il est approuvé et financé, sa construction prendra tellement de temps que les étudiants diplômés d'aujourd'hui seront à la retraite depuis longtemps avant que ce nouveau LHC ne démarre.

Les physiciens des particules américains ont reçu des nouvelles optimistes en décembre dernier lorsqu'un comité gouvernemental a soutenu l'étude des perspectives quant à un collisionneur de muons . Les muons sont des versions plus volumineuses d'électrons qui seraient plus puissantes lors des collisions, tout en étant dépourvues de la sous-structure des protons, de sorte qu'un collisionneur de muons relativement petit pourrait produire des collisions propres et à haute énergie. Un collisionneur de muons de pointe pourrait s’insérer dans la structure d’une installation existante, le Fermi National Accelerator Laboratory dans l’Illinois, et pourrait donc être construit plus rapidement et à moindre coût. Le problème est que les muons se désintègrent en quelques microsecondes et que la technologie nécessaire pour créer et contrôler des faisceaux étroits de ceux-ci n'existe pas encore. Néanmoins, si le projet va de l'avant, les partisans espèrent qu'un tel dispositif pourrait être opérationnel au moment où les élèves de maternelle d'aujourd'hui commencent à obtenir leur doctorat.

En attendant, les physiciens n’ont d’autre choix que de proposer des expériences alternatives et de nouvelles façons de reconstituer les indices que les collisionneurs leur ont déjà fournis.  

 

Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 2 juin 2024

[ impasse ] [ historique ] [ vulgarisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel