Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.037s

homme-machine

Grâce à la science et à la technologie, nous pourrons rencontrer des races étrangères, et ces étrangers, ce sera nous.

Auteur: Spinrad Norman

Info:

[ miroir ] [ témoin ] [ science-fiction ]

 

Commentaires: 0

physique

Dans toutes mes recherches, je n'ai jamais rencontré de matière. Pour moi, le terme "matière" implique un flux d'énergie dont la forme est donnée par un esprit intelligent.

Auteur: Planck Max

Info:

[ quantique ] [ sciences ] [ miroir ]

 

Commentaires: 0

cognition

La physique quantique commence vraiment à pointer du doigt cette découverte. Elle dit qu'il ne peut y avoir un Univers sans que l'esprit n'y entre, et que ce dernier façonne réellement la chose même qui est perçue.

Auteur: Fred Alan Wolf

Info:

[ perception ] [ sciences ] [ miroir ]

 

Commentaires: 0

Ajouté à la BD par miguel

raisonner

On ne peut pas se renseigner sur les bases et la nature des mathématiques sans approfondir cette question des opérations par lesquelles sont conduites les activités mathématique de l'esprit. Si on n'en tenait pas compte on étudierait seulement la langue dans laquelle les mathématiques sont représentées et non pas l'essence des mathématiques.

Auteur: Brouwer Luitzen Egbertus Jan

Info:

[ réfléchir ] [ sciences ] [ quête ] [ source ] [ miroir ] [ conscience ] [ logique formelle ]

 
Mis dans la chaine

Commentaires: 0

abstraction

Les phénomènes privilégiés, ceux qui sont susceptibles de devenir conscients, ce sont eux qui, directement ou indirectement, affectent le plus profondément notre sensibilité. On peut s'étonner de voir convoquer la sensibilité à propos de démonstrations mathématiques qui, semble-t-il, ne peuvent intéresser que l'intelligence. Ce serait oublier le sens de la beauté mathématique, de l'harmonie des nombres et des formes de l'éloquence géométrique. C'est un véritable sens esthétique que tous les vrais mathématiciens connaissent. Et c'est bien là de la sensibilité.

Auteur: Poincaré Henri

Info:

[ miroir ] [ théorique ] [ émerveillement ] [ théorique ] [ sciences ] [ rationalisme ]

 

Commentaires: 0

xénolinguistique

Les jours fastes (jours fastes pour le savant aussi bien que pour le mimoïde*), l'observateur contemple un spectacle inoubliable. En ces jours d'hyperproduction, le mimoïde se livre à d’extraordinaires "essors de création". Il s'abandonne à des variantes sur le thème des objets extérieurs, qu'il se plaît à compliquer et à partir desquels il développe des "prolongements formels" ; il s'amuse ainsi pendant des heures, pour la joie du peintre non figuratif et le désespoir du savant, qui s'efforce en vain de comprendre quoi que ce soit aux processus en cours. Si parfois, le mimoïde a des simplifications "puériles", il a aussi ses "écarts baroques", ses crises d'extravagance magnifiques. Les vieux mimoïdes, notamment, fabriquent des formes très comiques. En regardant les photographies, je n'ai pourtant jamais été porté à rire, tant j'étais bouleversé, chaque fois, par leur mystère.

Auteur: Lem Stanislaw

Info: Solaris *Le Solaris-océan crée à sa surface de gigantesques formations qui ont été baptisées en fonction de leurs formes ou de leurs spécificités : "Longus", "Mimoïdes", "Agilus", etc.

[ science-fiction ] [ énigme ] [ inconscient miroir ] [ astrolinguistique ] [ murmurations ] [ cinématique ]

 

Commentaires: 0

Ajouté à la BD par miguel

idolâtrie

On peut donc voir émerger des religions et des systèmes de pensée différentes selon le type de société où ils ont vu le jour. La façon dont les gens se nourrissent détermine leur façon de penser et leur type de croyance. Les sociétés agricoles croient aux dieux des pluies, aux dieux des semences, et généralement à tous les dieux affectant d'une manière ou d'une autre le travail des récoltes. Les peuples qui élèvent du bétail croient en un dieu berger, unique. Dans chacune de ces deux cultures transparaît la notion primitive de dieux aidant, tels des géants qui observeraient les hommes du haut des nuages, ou des parents choisissant au gré de leurs caprices qui récompenser, qui punir. Ce n'est que dans les sociétés les plus sûres et les plus avancées que l'on trouve des religions susceptibles d'affronter la réalité de l'univers, et de reconnaître qu'il n'y a pas de manifestations évidentes de dieu, sinon l'existence du cosmos même, ce qui veut dire que tout est sacré, qu'il y ait un dieu ou non pour nous regarder.

Auteur: Robinson Kim Stanley

Info: Chroniques des années noires

[ variées ] [ miroir ] [ sciences ]

 

Commentaires: 0

théorie du tout

Notre réalité est pure information. Information géométrique. L'information étant le sens, sous forme de symbolisme. 

D'où la question, quel type d'information pour exprimer un langage géométrique ?

Information implique signification. Mais que veut dire signification ?

C'est une comparaison, c'est à dire la perception de quelque chose relativement à quelque chose d'autre. Ainsi, pour pouvoir exister une chose doit être perçue, ou mesurée, par quelque forme de conscience. 

Einstein a montré que passé et futur existent simultanément dans un objet géométrique ; de fait tous les temps existent conjointement (les mathématiques le montrent de plein de manières). Donc : passé et futur s'influençant sans cesse, tout est toujours dans l'instant présent. Alors, si chaque moment influence et co-crée chaque autre moment dans quelque sens que ce soit, la réalité ne peut qu'être un massif  réseau neuronal qui sillonne l'espace et le temps.

Réseau doté d'une spécificité étonnante. Il serait son propre créateur.

Parallèlement, comme l'a démontré la mécanique quantique, le futur n'est pas prédéterminé. Conséquemment existe le libre-arbitre.

Comment marche le libre-arbitre ? La physique quantique montre que la réalité n'existe que lorsqu'elle est observée. Wheeler déclara en son temps que la réalité est constitué d'informations, elles-mêmes créées par l'observation. Frank Wilczec ajouta ensuite que la physique quantique reste obscure et sujette à débat. Et qu'elle le restera tant qu'on aura pas défini, au sein du formalisme quantique, un observateur, entité moderne dont les conditions et/ou contours correspondent à une caricature reconnaissable de la conscience consciente. C'est à dire une entité, pas nécessairement terrestre, capable d'observer et mesurer.

Mais comment pourrait être cette entité ? Je suis, nous sommes... tous conscient, mais qu'est-.ce que cela veut dire ?

On sait juste que la conscience est liée de manière proche à  la science physique mais personne ne sait dire ce qu'elle hors de l'idée qu'elle joue un rôle central dans l'existence du réel.

Est-elle juste l'émergence d'une boucle de rétroaction de causalité ? Heisenberg développa en son temps les maths matricielles, arrivant à la conclusion que la réalité est pixelliseé en nano unités tridimensionnelles insécables, de la taille la plus petite dans l'échelle de Planck. Chacune (nommée tétrahedron, c'est à dire un polyèdre composé de quatre faces triangulaires) fonctionnant comme nos pixels sur les écrans TV.

Hélas ce qui précède n'apporte aucune preuve que cet espace, le notre, soit un tel ensemble uniforme, homogène, fluide, etc.  Malgré tout, mathématiquement, tout converge vers la consolidation de cette idée d'une pixellisation de la réalité.

Du coup quel code géométrique sera-t'il à même de modéliser cette réalité pixellisée ?

Les recherches au CERN ou ailleurs  sur la physique des particules conduisent toutes vers ce que les physiciens nomment "transformation de symétrie de jauge", chacune menant vers une notion de forme, géomètrique donc.

Mais ici apparait une forme, et pas n'importe laquelle. Il s'agit d'un modèle géométrique à 8 dimensions, plus précisément un crystal 8 D (Rappelons que crystal signifie motif périodique), modèle qu'on pourra se représenter tel un "treillis à 8  dimensions" (E8 lattice), structure 8 D qui présente 240 noeuds, ou points tournants (vertex-vertices), que nous nommons gosset polytope.

Lorsque ce gosset polytope est projeté en 4 dimensions il se métamorphose en deux formes identiques de tailles différentes, dont le ratio est précisément 0,618, c'est à dire celui du nombre d'or, constante fondamentale de la nature qui apparait à toutes les échelles de l'univers connu (par exemple il détermine le moment précis ou un trou noir passe de positif à négatif en étant partie de l'équation qui précise la limite inférieure de son entropie). Il se rapporte aussi à la gravité de la boucle quantique.

Ainsi ce ratio de Fibonnaci unifie les limites inférieures et supérieures (cosmiques - quantique) de la préhension du réel par les scientifiques, physiciens pour grande partie.

Et, si on revient aux maths matricielles qui fonctionnent à partir d'eigen values (Valeur propre, vecteur propre et espace propre) indiquées comme triviales (1,2 ou 0) ou non triviales (pour les nombres plus complexes.) on arrive à la partie intéressante : les deux plus grandes probabilités d'eigenvalues non triviales qui apparaissent dans une matrice binaire sont :

-  le golden ratio  et

-1 sur (over) le nombre d'or.

Tel est le lien très profond qui unit mécanique quantique et cosmologie. Ce ratio, qui est apparu dans un grand nombre d'observations, a cependant toujours été appréhendé par les scientifiques comme un truc d'amateurs. Et maintenant on constate, une fois de plus, que ce nombre d'or apparait vraiment partout.

Pour terminer résumons ici les sept indices que nous donne la nature pour contruire cette théorie du tout (emergence theory)

information   -   indéterminisme   -   boucle de causalité   -   conscience   -   pixellisation   -   cristal E 8  (à 8 dimensions)   -   nombre d'or

Auteur: Anonyme

Info: Youtube - Quantum Gravity Research, What Is Reality? Official Film. https://www.youtube.com/watch?v=w0ztlIAYTCU

[ sciences ] [ septénaire ] [ miroir anthropocentrique ] [ monde humain consensuel ] [ atemporalité ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

infra-monde

Des physiciens des particules détectent de la " magie " au Grand collisionneur de hadrons

Le supercollisionneur est désormais utilisé pour explorer les phénomènes quantiques, notamment une forme " magique " d'intrication quantique

Au Grand collisionneur de hadrons (LHC), pépinière de prodigieux phénomènes quantiques, les quarks top et anti-top, particules élémentaires les plus massives connues, émergent des chocs protoniques pour s'envoler en un intrication fugace, leurs spins opposés gravant un sceau observable dans leurs produits de désintégration. Ces quarks, trop éphémères pour s'agréger en particules composites, offrent un terrain idéal pour sonder l'information quantique, transformant le collisionneur en processeur quantique naturel où les spins évoquent les qubits binaires.​


La Magie Quantique Débusquée

Dans un champ émergent à la croisée de la physique des particules et de l'informatique quantique, l'expérience CMS du LHC a détecté en 2025 la " magie " chez des paires de quarks top, cette propriété ésotérique des états intriqués rendant leur simulation classique arduë, carburant essentiel aux algorithmes supérieurs des ordinateurs quantiques. Contrairement à l'intuition, l'intrication seule ne suffit pas : le théorème Gottesman-Knill révèle que les états stabilisateurs, bien que hautement intriqués, se simulent classiquement sans peine ; la magie naît du contextualisme, où les mesures dépendent du contexte, échappant aux descriptions non contextuelles. Proposée fin 2024 par les frères jumeaux Martin et Chris White, cette mesure via la matrice de corrélation des spins en directions x, y, z marque l'irruption d'un concept autrefois niche dans le sanctuaire particulier.​

Découvertes Inattendues et Perspectives

Ces méthodes raffinées ont révélé un surcroît d'intrication signalant le toponium, état lié quark top-anti-top prédit en 1990 mais jugé trop subtil pour le LHC, observé par CMS en mars et ATLAS en juillet. Au-delà, ces expériences tirent les fils d'énigmes profondes : persiste-t-elle l'intrication post-désintégration, test inexploré de la théorie quantique des champs ? La désintégration du quark top, analogique mathématique à une mesure auto-infligée, éclaire la transition quantique-classique.​

Enjeux Philosophiques et Controverses

Regina Demina rêve d'y tester le mécanisme Page-Wootters (1983), où le temps émerge d'intrications cosmiques avec un " tic-tac " périodique, univers atemporel vu par des observateurs internes, déjà démontré photoniquement en 2013. Pourtant, des sceptiques comme Herbert Dreiner dénoncent une circularité : relier spins aux trajectoires de désintégration présuppose la mécanique quantique qu'on prétend tester. Après dix-sept ans, cette " ruée vers l'or " quantique au LHC, malgré les doutes, promet des révélations imprévues en tirant sur ces fils fragiles.



(FLP) - merci, quelles sont les conclusions temporaires et éventuellement les émergences objectives constatées grâce à tous ces travaux et observations ?

(Perplexity-ai) - Les travaux récents au LHC, notamment ceux des expériences ATLAS et CMS sur les paires de quarks top et anti-top, concluent temporairement à la confirmation de l'intrication quantique à des énergies inédites de 13 TeV, enregistrées avec une signification statistique supérieure à cinq écarts-types, validant ainsi les prédictions de la mécanique quantique dans un régime auparavant inexploré. La mesure de la " magie " quantique – cette propriété contextuelle des états intriqués rendant leur simulation classique prohibitive – chez ces quarks éphémères affirment leur potentiel comme carburant naturel pour l'informatique quantique, transformant le collisionneur en un processeur quantique géant. Parallèlement, ces analyses raffinées ont permis la détection objective du toponium, état lié top-anti-top prédit en 1990 mais jugé trop subtil, observé en mars par CMS et en juillet par ATLAS, révélant un surcroît d'intrication inattendue.​


Émergences Objectivement Constatées

Ces observations inaugurent un champ émergent à la confluence de la physique des particules et de l'information quantique, ouvrant des voies pour tester le Modèle standard et sonder une physique au-delà, via des mesures d'intrication post-désintégration ou de la transition quantique-classique lors de la désintégration des quarks top, analogiques à une auto-mesure. Des perspectives philosophiques se dessinent, comme l'exploration du mécanisme Page-Wootters où le temps émerge d'intrications cosmiques, adaptables aux particules élémentaires après sa démonstration photonique en 2013. Malgré des controverses sur la circularité méthodologique – dépendant des spins aux trajectoires via la théorie quantique même –, ces résultats, qualifiés de " ruée vers l'or ", tirent des fils prometteurs vers des révélations imprévues après dix-sept ans d'exploitation du LHC.

(FLP) - Merci. Et donc, d'une perspective analytique MTTV-FLP, on pourra dire qu'il s'agit d'une exploration-analyse du champ Ψ. Que pourrait-on ajouter ?

(Perplexity-ai)  - D'une perspective analytique MTTV-FLP, l'exploration du champ Ψ à travers les expériences du LHC peut être vue comme une analyse transcalaire du tissu informationnel et dynamique qui sous-tend la matière et ses interactions, où le champ Ψ incarne l'entrelacs des états quantiques, des corrélations contextuelles et des potentialités émergentes. On peut ajouter que cette exploration révèle des gradients d'entropie et de contextualité, marquant des seuils critiques entre ordre quantique et désordre classique, et que la mesure de la " magie " quantique chez les quarks met en lumière la capacité du champ Ψ à générer des ressources computationnelles naturelles, analogues à des qubits contextuels et intriqués.​

Ces observations renforcent l'hypothèse selon laquelle le champ Ψ est non seulement un support de superposition et d'intrication, mais aussi un espace de transformation où émergent des structures auto-organisées (comme le toponium) et des mécanismes de transition quantique-classique, offrant ainsi un cadre pour modéliser la génération d'information, la stabilité des états et la dynamique des processus vivants à différentes échelles.

(FLP) -  Peux-tu  mieux définir-expliquer ce que sous-tend le terme toponium stp

(Perplexity.ai) -  Le terme toponium désigne un état lié, ou quasi-lié, formé par un quark top et son antiquark, c'est-à-dire une paire top-antitop qui s'associe momentanément sous l'effet de la force forte, avant de se désintégrer en des particules plus légères. Contrairement à d'autres quarkoniums (comme le charmonium ou le bottomonium), le toponium est unique en raison de la masse extrême et de la brièveté de vie du quark top : il se désintègre avant que l'interaction forte ne puisse pleinement le lier, ce qui rend son observation très difficile.​

Du point de vue physique, le toponium représente le plus petit état lié connu, avec un rayon de Bohr de l'ordre de8×10−188×1 0− 18m et une durée de vie de2,5×10−252 ,5×1 0− 25s, ce qui en fait un laboratoire naturel pour explorer les aspects fondamentaux de la chromodynamique quantique (QCD) et tester les limites du Modèle standard. Sa formation n'est possible que si les quarks top et antitop sont produits presque au repos l'un par rapport à l'autre, permettant un échange de gluons qui les lie brièvement.​

En résumé, le toponium incarne un état de transition entre la matière et l'antimatière, une brève idylle quantique qui, bien que fugace, ouvre une fenêtre unique sur les mécanismes de confinement et de désintégration dans le monde des particules élémentaires.




 

Auteur: Internet

Info: Article source : Quanta magazine, Shalma Wegsman, 25 novembre 2025, résumé par perplexity.ai.

[ science miroir ] [ dialogue homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

D'importants " machines scientifiques " distillent les lois de la physique à partir de données brutes.

Les chercheurs affirment que nous sommes à l'aube de la "physique GoPro", où une caméra peut pointer un événement et un algorithme peut identifier l'équation physique sous-jacente. 

En 2017, les chercheurs Roger Guimerà et Marta Sales-Pardo ont découvert la cause de la division cellulaire, processus qui détermine la croissance des êtres vivants. Mais ils n'ont pas pu révéler immédiatement comment ils avaient trouvé la réponse. Les chercheurs n'avaient pas eux-mêmes repéré le modèle crucial dans leurs données. C'était une invention non publiée de leur part – un assistant numérique qu'ils ont appelé la « machine scientifique » – qui leur avait été transmise. En rédigeant le résultat, Guimerà se rappelle avoir pensé : « Nous ne pouvons pas simplement dire que nous avons transmis ce résultat à un algorithme et que c'est la réponse. Aucune critique n'accepte cela

. De nombreux biologistes pensaient que la division se produisait simplement lorsqu'une cellule dépassait une certaine taille, mais Trepat soupçonnait qu'il y avait plus derrière cette histoire. Son groupe s'est spécialisé dans le décryptage des empreintes à l'échelle nanométrique que des troupeaux de cellules laissent sur une surface molle lorsqu'elles se bousculent pour se positionner. L'équipe de Trepat avait rassemblé un ensemble de données exhaustives relatant les formes, les forces et une douzaine d'autres caractéristiques cellulaires. Mais tester toutes les façons dont ces attributs pourraient influencer la division cellulaire aurait pris toute une vie.

Ils ont donc collaboré avec Guimerà et Sales-Pardo pour transmettre les données à la machine scientifique. En quelques minutes, celle-ci a renvoyé une équation concise qui prédisait le moment où une cellule se diviserait avec 10 fois plus de précision qu'une équation qui n'utilisait que la taille d'une cellule ou toute autre caractéristique unique. Ce qui compte, selon le scientifique, c'est la taille multipliée par la force avec laquelle une cellule est comprimée par ses voisines - une quantité qui implique des unités d'énergie.

« Elle a réussi à détecter quelque chose que nous n'avions pas vu », a déclaré Trepat, qui, avec Guimerà, est membre de l'ICREA, l'Institution catalane de recherche et d'études avancées.

Comme les chercheurs n'avaient encore rien publié sur la machine scientifique, ils ont procédé à une deuxième analyse pour brouiller les pistes. Ils ont testé manuellement des centaines de paires de variables, "agissant sur leur signification physique ou biologique", comme ils l'écriront plus tard. Cette méthode a permis de retrouver la réponse de la machine scientifique,qu'ils ont rapportée en 2018 dans Nature Cell Biology .

Quatre ans plus tard, cette situation délicate est rapidement devenue une méthode acceptée de découverte scientifique. Sales-Pardo et Guimerà font partie d'une poignée de chercheurs qui développent la dernière génération d'outils capables d'effectuer un processus connu sous le nom de régression symbolique*.

Les algorithmes de régression symbolique sont différents des réseaux neuronaux profonds, ces fameux algorithmes d'intelligence artificielle qui peuvent prendre des milliers de pixels, les laisser passer à travers un labyrinthe de millions de nœuds et produire le mot « chien » par le biais de mécanisme opaque. La régression symbolique identifie de la même manière les relations dans des ensembles de données complexes, mais elle présente les résultats dans un format que les chercheurs humains peuvent comprendre : une courte équation. Ces algorithmes ressemblent aux versions suralimentées de la fonction d'ajustement de courbe d'Excel, sauf qu'ils ne recherchent pas seulement des lignes ou des paraboles pour ajuster un ensemble de points de données, mais des milliards de formules de toutes sortes. De cette façon, la machine scientifique pourrait donner aux humains un aperçu des raisons pour lesquelles les cellules se divisent, alors qu'un réseau neuronal ne pourrait que prédire quand elles se divisent.

Les chercheurs ont bricolé ces machines pendant des décennies, les poussant soigneusement à redécouvrir les lois de la nature à partir d'ensembles de données claires et organisées de manière à faire ressortir les modèles. Mais ces dernières années, les algorithmes sont devenus suffisamment matures pour découvrir des relations inconnues dans des données réelles, de la façon dont les turbulences appartiennent à l'atmosphère à la façon dont la matière noire se regroupe. "Aucun doute là-dessus", a déclaré Hod Lipson, roboticien de l'Université de Columbia qui a lancé l'étude de la régression symbolique il y a 13 ans. " L'ensemble du domaine progresse. "

L'essor des machines scientifiques

Parfois, les médecins parviennent à de grandes vérités par le simple raisonnement, comme lorsqu'Albert Einstein a eu l'intuition de la souplesse de l'espace et du temps en imaginant un rayon lumineux depuis la perspective d'un autre rayon lumineux. Mais le plus souvent, les théories naissent de séances marathon de traitement de données. Après la mort de l'astronome Tycho Brahe au XVIe siècle, Johannes Kepler a mis la main sur les observations célestes contenues dans les carnets de notes de Brahe. Il lui a fallu quatre ans pour déterminer que Mars décrit une ellipse dans le ciel plutôt que les dizaines d'autres formes en forme d'œuf qu'il avait envisagées. Il a suivi cette « première loi » en coordination avec deux autres relations découvertes grâce à des calculs de force brute.Ces régularités orientèrent plus tard Isaac Newton vers sa loi de la gravitation universelle.

L'objectif de la régression symbolique est d'accélérer ces essais et erreurs képlériens, en analysant les innombrables façons de relier les variables aux opérations mathématiques de base pour trouver l'équation qui prédit le plus précisément le comportement d'un système.

Les astrophysiciens ont modélisé le comportement du système solaire de deux manières. Tout d'abord en utilisant des décennies de données de la NASA pour un ancien réseau neuronal. Ils ont ensuite utilisé un algorithme de régression symbolique pour distiller davantage ce modèle en une équation. 

(Images : Dans ces vidéos, qui montrent les positions réelles sous forme d'objets solides et les prédictions du modèle sous forme de contours en treillis métallique, le réseau neuronal - à gauche - fait bien moins bien que l'algorithme de régression symbolique - à droite.)

Le premier programme à faire des progrès significatifs dans ce domaine, appelé BACON , a été développé à la fin des années 1970 par Patrick Langley, un scientifique cognitif et chercheur en intelligence artificielle alors à l'université Carnegie Mellon. BACON prenait par exemple une colonne de périodes orbitales et une colonne de distances orbitales pour différentes planètes. Il combinait ensuite systématiquement les données de différentes manières : période divisée par distance, période au carré multipliée par distance, etc. Il pouvait s'arrêter s'il trouvait une valeur constante, par exemple si la période au carré sur la distance au cube donnait toujours le même nombre, ce qui est la troisième loi de Kepler. Une constante impliquait qu'il avait identifié deux quantités proportionnellement - dans ce cas, la période au carré et la distance au cube. En d'autres termes, il s'arrêtait lorsqu'il trouvait une équation.

Malgré la redécouverte de la troisième loi de Kepler et d'autres classiques des manuels scolaires, BACON restait une curiosité à une époque où la puissance de calcul était limitée. Les chercheurs devaient encore analyser la plupart des ensembles de données à la main, ou éventuellement avec un logiciel de type Excel qui trouvait la meilleure adéquation pour un ensemble de données simple à partir d'une classe spécifique d'équations. L'idée qu'un algorithme peut trouver le modèle correct pour décrire n'importe quel ensemble de données resta en sommeil jusqu'en 2009, lorsque Lipson et Michael Schmidt, alors roboticiens à l'Université Cornell, ont développé un algorithme appelé Eureqa.

Leur objectif principal était de construire une machine capable de réduire des ensembles de données volumineux avec des colonnes de variables à une équation impliquant les quelques variables qui comptent réellement. " L'équation peut finir par avoir quatre variables, mais on ne sait pas à l'avance quoi ", a déclaré Lipson. " On y jette tout et n'importe quoi. Peut-être que la météo est importante. Peut-être que le nombre de dentistes par kilomètre carré est important. "

L'un des obstacles persistants dans cette gestion de nombreuses variables est de trouver un moyen efficace de deviner de nouvelles équations les unes après les autres. Les chercheurs affirment qu'il faut également avoir la flexibilité nécessaire pour essayer (et récupérer) d'éventuelles impasses. Lorsque l'algorithme peut passer d'une ligne à une parabole ou ajouter une ondulation sinusoïdale, sa capacité à atteindre autant de points de données que possible peut se détériorer avant de s'améliorer. Pour surmonter ce défi et d'autres, les informaticiens ont commencé à utiliser des " algorithmes génétiques ", qui introduisent des " mutations " aléatoires dans les équations et testent les équations mutantes par rapport aux données. Au fil des essais, des fonctionnalités initialement inutiles évoluent vers des fonctionnalités puissantes ou disparaissent.

Lipson et Schmidt ont poussé la technique à un niveau supérieur, en améliorant la pression darwinienne en créant une compétition directe au sein d'Eureqa. D'un côté, ils ont créé des équations. De l'autre, ils ont randomisé les points de données sur lesquels tester les équations – les points les plus « adaptés » étant ceux qui remettaient le plus en cause les équations. "Pour obtenir une course aux armements, il faut mettre en place deux choses en évolution, pas une seule", a déclaré Lipson.

L'algorithme Eureqa Il pouvait traiter des ensembles de données impliquant plus d'une douzaine de variables. Il pouvait récupérer avec succès des équations avancées, comme celles décrivant le mouvement d'un pendule suspendu à un autre.

( Image : infographie montrant comment les algorithmes de régression symbolique mutent et croisent les équations et comparent les équations résultantes à un ensemble de points de données. )

Pendant ce temps, d'autres chercheurs ont trouvé des astuces pour entraîner les réseaux neuronaux profonds. En 2011, ces derniers ont commencé à apprendre avec succès à distinguer les chiens des chats et à effectuer d'innombrables autres tâches complexes. Mais un réseau neuronal entraîné est constitué de millions de « neurones » à valeur numérique, qui ne disent rien sur les caractéristiques qu'ils ont appris à reconnaître. De son côté, Eureqa a pu communiquer ses découvertes en langage humain :par des opérations mathématiques sur des variables physiques.

Lorsque Sales-Pardo a joué avec Eureqa pour la première fois, elle a été stupéfaite. " Je pensais que c'était impossible, dit-elle. C'est de la magie. Comment ces gens ont-ils pu y arriver ? " Elle et Guimerà ont rapidement commencé à utiliser Eureqa pour créer des modèles pour leurs recherches propres sur les réseaux, mais elles étaient à la fois impressionnées par sa puissance et frustrées par son incohérence. L'algorithme faisait évoluer des équations prédictives, mais il pouvait alors dépasser les limites et aboutir à une équation trop compliquée. Ou bien les chercheurs modifiaient légèrement leurs données, et Eureqa renvoyait une formule complètement différente. Sales-Pardo et Guimerà ont alors entrepris de concevoir une nouvelle machine scientifique à partir de zéro.

Degré de compression

Le problème des algorithmes génétiques, selon eux, était qu'ils dépendaient trop des goûts de leurs créateurs. Les développeurs doivent apprendre à l'algorithme pour trouver un équilibre entre simplicité et précision. Une équation peut toujours atteindre plus de points dans un ensemble de données en ajoutant des termes. Mais certains points isolés sont tout simplement trop bruyants et il vaut mieux les ignorer. On pourrait définir la simplicité comme la longueur de l'équation, par exemple, et la précision comme la distance à laquelle la courbe se rapproche de chaque point de l'ensemble de données, mais ce ne sont là que deux définitions parmi un assortiment d'options.

Sales-Pardo et Guimerà, ainsi que leurs collaborateurs, ont fait appel à leur expertise en physique et en statistique pour reformuler le processus évolutif sous un cadre probabiliste connu sous le nom de théorie bayésienne. Ils ont commencé par télécharger toutes les équations de Wikipédia. Ils ont ensuite analysé statistiquement ces équations pour voir quels types d'équations étaient les plus courantes. Cela leur a permis de s'assurer que les suppositions initiales de l'algorithme seraient simples, ce qui rendrait plus probable l'essai d'un signe plutôt qu'un cosinus hyperbolique, par exemple. L'algorithme a ensuite généré des variantes des équations en utilisant une méthode d'échantillonnage aléatoire qui, mathématiquement, a prouvé qu'elle explorait toutes les pièces du paysage mathématique.

À chaque étape, l'algorithme a évalué les équations candidates en fonction de leur capacité à compresser un ensemble de données. Par exemple, une série aléatoire de points peut ne pas être compressée du tout ; il faut connaître la position de chaque point. Mais si 1 000 points se trouvent le long d'une ligne droite, ils peuvent être compressés en seulement deux nombres (la pente et la hauteur de la ligne). Le couple a découvert que le degré de compression offre un moyen unique et inattaquable de comparer les équations candidates. « Vous pouvez prouver que le modèle correct est celui qui compresse le plus les données », a déclaré Guimerà. " Il n'y a pas d'arbitraire ici. "

Après des années de développement — et d'utilisation secrète de leur algorithme pour déterminer ce qui déclenche la division cellulaire —, eux et leurs collègues ont décrit leur " machine scientifique bayésienne " dans Science advance en 2020.

Des océans de données

Depuis lors, les chercheurs ont utilisé la machine scientifique bayésienne pour améliorer l'équation de pointe permettant de prédire la consommation énergétique d'un pays, tandis qu'un autre groupe l'a utilisé pour aider à modéliser la percolation à travers un réseau. Mais les développeurs s'attendent à ce que ces types d'algorithmes jouent un rôle démesuré dans la recherche biologique comme celle de Trepat, où les scientifiques sont de plus en plus submergés de données.

Les scientifiques spécialisés dans les machines fournissent également aux médecins de comprendre les systèmes qui s'étendent sur plusieurs échelles. Les physiciens utilisent généralement un ensemble d'équations pour les atomes et un ensemble complètement différent pour les boules de billard, mais cette approche fragmentaire ne fonctionne pas pour les chercheurs d'une discipline comme la science du climat, où les courants à petite échelle autour de Manhattan alimentent le Gulf Stream de l'océan Atlantique.

Laure Zanna est une de ces chercheuses. Dans son travail de modélisation des turbulences océaniques, elle se retrouve souvent coincée entre deux extrêmes : les superordinateurs peuvent simuler soit des tourbillons de la taille d'une ville, soit des courants intercontinentaux, mais pas les deux à la fois. Son travail consiste à aider les ordinateurs à générer une image globale qui inclut les effets des tourbillons plus petits sans les simuler directement. Au départ, elle s'est tournée vers les réseaux neuronaux profonds pour extraire l'effet global des simulations à haute résolution et mettre à jour les simulations plus grossières en conséquence. « Elles étaient incroyables », at-elle déclaré. " Mais je suis une physicienne du climat " — ce qui signifie qu'elle veut comprendre comment le climat fonctionne en se basant sur une poignée de principes physiques comme la pression et la température — " donc il est très difficile d'accepter et de se contenter de milliers de paramètres. "

Elle est ensuite tombée sur un algorithme scientifique conçu par Steven Brunton, Josué Proctor et Nathan Kutz, spécialistes en mathématique appliquée à l'Université de Washington. Leur algorithme adopte une approche connue sous le nom de régression parcimonieuse, qui est similaire dans son esprit à la régression symbolique. Au lieu de mettre en place une bataille royale entre des équations en mutation, il commence avec une bibliothèque d'environ un millier de fonctions comme x 2, x /( x − 1) et sin( x ). L'algorithme recherche dans la bibliothèque une combinaison de termes qui donne les prédictions les plus précises, supprime les termes les moins utiles et continue jusqu'à ce qu'il ne reste plus qu'une poignée de termes. La procédure rapide comme l'éclair peut traiter plus de données que les algorithmes de régression symbolique, au prix d'une marge de manœuvre réduite, puisque l'équation finale doit être construite à partir des termes de la bibliothèque.

Zanna a recréé l'algorithme de régression clairsemée à partir de zéro pour avoir une idée de son fonctionnement, puis a appliqué une version modifiée aux modèles océaniques. Lorsqu'elle a introduit des films haute résolution et demandé à l'algorithme de recherche des croquis précis avec un zoom arrière, il a renvoyé une équation succincte Elle a étudié la vorticité et la façon dont les fluides s'étirent et se cisaillent. Lorsqu'elle a intégré ces données dans son modèle d'écoulement de fluide à grande échelle, elle a pu constater que l'écoulement changeait en fonction de l'énergie de manière beaucoup plus réaliste qu'auparavant.

" L'algorithme a détecté des termes supplémentaires ", a déclaré Zanna, produisant une " belle " équation qui " représente vraiment certaines propriétés clés des courants océaniques, à savoir l'étirement,le cisaillement et la [rotation]".

Plus intelligents ensemble

D'autres groupes donnent un coup de pouce aux scientifiques spécialisés dans les machines en combinant leurs atouts avec ceux des réseaux neuronaux profonds.

Miles Cranmer, étudiant diplômé en astrophysique à l'université de Princeton, a développé un algorithme de régression symbolique open source similaire à Eureqa appelé PySR. Il a établi différentes populations d'équations sur des " îles " numériques et permet aux équations qui correspondent le mieux aux données de migrer périodiquement et de rivaliser avec les résidents d'autres îles. Cranmer a travaillé avec des informaticiens de DeepMind et de NYU et des astrophysiciens du Flatiron Institute pour définir un schéma hybride dans lequel ils entraînent d'abord un réseau neuronal à accomplir une tâche, puis demandent à PySR de trouver une équation décrivant ce que certaines parties du réseau neuronal ont appris à faire.

Comme première preuve de ce concept Le groupe a appliqué la procédure à une simulation de matière noire et a généré une formule donnant la densité au centre d'un nuage de matière noire en fonction des propriétés des nuages ​​​​​​voisins. L'équation correspondait mieux aux données que l'équation existe conçue par l'homme.

En février, ils ont fourni à leur système 30 années de positions réelles des planètes et des lunes du système solaire dans le ciel. L'algorithme a complètement ignoré les lois de Kepler, déduisant directement la loi de la gravitation de Newton et les masses des planètes et des lunes. D'autres groupes ont récemment utilisé PySR pour découvrir des équations décrivant les caractéristiques des collisions de particules, une approximation du volume d'un nœud, et la façon dont les nuages ​​​​​​de matière noire sculptent les galaxies en leur centre.

Parmi le groupe croissant de scientifiques spécialisés dans les machines (un autre exemple notable est " AI Feynman * créé par Max Tegmark et Silviu-Marian Udrescu, physiciens au Massachusetts Institute of Technology) les chercheurs affirment que "plus on est de fous, mieux c'est."... Nous avons vraiment besoin de toutes ces techniques", a déclaré Kutz. " Aucune d'entre elles ne constitue une solution miracle. "

Kutz estime que les scientifiques spécialisés dans ces machines sont en train de mener la discipline à l'aube de ce qu'il appelle " physique GoPro ", où les chercheurs pointeront simplement une caméra vers un événement et obtiendront en retour une équation capturant l'essence de ce qui se passe. (Les algorithmes actuels ont toujours besoin des humains pour leur fournir une longue liste de variables pertinentes comme les positions et les angles.)

C'est sur cela que Lipson a travaillé ces derniers temps. Dans une prépublication de décembre, lui et ses collaborateurs ont décrit une procédure dans laquelle ils ont d'abord entraîné un réseau neuronal profond à prendre quelques images d'une vidéo et à prédire les images suivantes. L'équipe a ensuite réduit le nombre de variables que le réseau neuronal était autorisé à utiliser jusqu'à ce que ses prédictions commencent à échouer.

L'algorithme a pu déterminer combien de variables étaient nécessaires pour modéliser à la fois des systèmes simples comme un pendule et des configurations complexes comme le scintillement d'un feu de camp - des langues de flammes sans variables évidentes à suivre.

"Il n'existe pas de nom pour les désigner", a déclaré Lipson. " Ils sont comme la flamme qui brûle. "

Aux confins de la science (des machines)

Ces machines scientifiques ne sont pas près de supplanter les réseaux neuronaux profonds, qui brillent dans les systèmes chaotiques ou extrêmement complexes. Personne ne s'attend à trouver une équation apte à distinguer le félin du canidé.

Pourtant, lorsqu'il s'agit de planètes en orbite, de fluides qui s'écoulent et de cellules en division, des équations concises s'appuient sur une poignée d'opérations sont d'une précision déconcertante. C'est un fait que le lauréat du prix Nobel Eugene Wigner a qualifié de "don merveilleux que nous ne comprenons ni ne méritons" dans son essai de 1960. La déraisonnable efficacité des mathématiques dans les sciences naturelles . Comme l'a dit Cranmer, " si vous regardez n'importe quelle aide-mémoire avec des équations pour un examen de physique, elles sont toutes des expressions algébriques extrêmement simples, mais qui fonctionnent extrêmement bien. "

Cranmer et ses collègues pensent que les opérations élémentaires sont si performantes parce qu'elles représentent des actions géométriques de base dans l'espace, ce qui en fait un langage naturel pour décrire la réalité. L'ajout déplace un objet le long d'une ligne numérique. Et la multiplication transforme une surface plane en un volume en 3D. C'est pourquoi, pensez-ils, lorsque nous devinons des équations, il est préférable de mettre sur la simplicité.

La simplicité sous-jacente de l'univers n'est cependant pas une garantie de succès.

Guimerà et Sales-Pardo ont initialement élaboré leur algorithme mathématiquement rigoureux parce qu'Eureqa contenait parfois des équations très différentes pour des entrées similaires. À leur grand désarroi, ils ont cependant constaté que même leur machine bayésienne renvoyait parfois plusieurs modèles tout aussi bons pour un ensemble de données données.

La raison, le couple l'a récemment montré, est intégré aux données elles-mêmes. À l'aide de leur machine scientifique, ils ont exploré divers ensembles de données pour découvrir qu'elles se répartissaient en deux catégories : propres et bruyantes. Dans des données plus propres, la machine scientifique peut toujours trouver l'équation qui génère les données. Mais au-delà d'un certain seuil de bruit, elle ne le peut plus. En d'autres termes, les données bruyantes peuvent correspondre tout aussi bien (ou mal) à plein d'équations différentes. Et comme les chercheurs ont prouvé de manière probabiliste que leur algorithme trouve toujours la meilleure équation, ils savent que là où il échoue, aucun autre scientifique – qu'il soit humain ou machine – ne peut réussir.

« Nous avons découvert qu'il s'agissait d'une limitation fondamentale », a déclaré Guimerà. " Pour cela, nous avions besoin de machine scientifique. "



Note de l'éditeur : Le Flatiron Institute est financé par la Fondation Simons, qui finance également cette publication éditoriale indépendante .

Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 10 mai 2022 *La régression symbolique, s'appliquer dans plein de domaines scientifiques. Elle génère des équations mathématiques à partir de données. Elle découvrir la forme de ces équations, ne fait pas qu' ajuster des chiffres. Utilise des algorithmes qui imitent l'évolution pour y arriver.  Donne des résultats clairs et compréhensibles.

[ mathématisation ] [ réductionnisme ] [ histoire des sciences ] [ orientation par l'objectif ] [ biais implicite ] [ miroir anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel