Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 38
Temps de recherche: 0.0592s

points de situations

En anglais originel, un benchmark (étalon ou repère en français) était un point de référence servant à effectuer une mesure. Un terme issu du vocabulaire professionnel des géomètres qui désignait à l'origine un repère de nivellement, un jalon.

Benchmark est ensuite entré dans la langue française en tant qu'anglicisme informatique, sous la définition de Banc d’essai permettant de mesurer les performances d'un système pour le comparer à d'autres. 

Il s'agit donc d'un désir de se situer, via des test en temps réel dans un cadre de rivalité antagoniste, d'émulation compétitive, voire carrément de combat. Une " étude pragmatique de la concurrence " selon les habitudes capitalistes de marketing du 20e siècle. 

L'évolution étant ce qu'elle est on comprendra aisément combien cette notion de " comment je me situe en tant qu'entité séparée  des autres " intègre l'idée d'une relativité quasi absolue.

Problématique un peu plus éblouissante encore lorsqu'il fut question d'évaluer et comparer les diverses intelligences artificielles vers les années 2020, que ce soit entre elles ou avec les humains et surtout leurs savoirs. 

L'humain, j'en suis un autre, semble quelque peu hanté par une volonté de conclure et c'est bien face à pareil défi, celui de proposer une "explication durable" des phénomènes, de leurs interactions et de leurs conséquences,  qu'il se retrouve limité. Les points fixes sur lesquels il appuie ses savoirs ressemblent à des chimères plus il les investigue profondément. 

Restent néanmoins certains fondamentaux : ma vie, la planète qui m'a vu éclore, mes descendants, etc...

Et puis, si je disparais, tout disparait... sans garantie que cette expérience ne fut qu'une illusion.

Personnellement mon modèle c'est la nature, vu sous cet angle cette notion de benchmark, enfantée par le milieu corporate américain de mon époque, ressemble à une impasse au sens où ce qu'on peut voir dans la nature ressemble plus à des interactions-collaborations qu'à des valorisations comparées, articulées sur des rapports de pouvoir et autres conventions à fond égoïste.

Auteur: Internet

Info: Diverses sources compilées par Mg, 2023

[ intraduisible ] [ mot-univers ] [ pas de point fixe ] [ balise ] [       standard ] [     point de référence ] [   base ] [ critère ] [  spécification ] [  canon ] [  convention ] [  principe directeur ] [     norme ] [     critère ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

néologismes

" Enshittification " : que signifie le mot de l'année du dictionnaire australien ?

Le dictionnaire australien Macquarie a choisi son mot de l'année, qui reflète un sentiment généralisé selon lequel les choses empirent en ce qui concerne tout ce qui touche au numérique. Et plus encore...

Le dictionnaire Macquarie, considéré comme la référence standard en matière d'anglais australien, a nommé " enshittification " comme son mot de l'année 2024 .

Il s'agit d'un terme inventé par le journaliste britanno-canadien Cory Doctorow en 2022 pour décrire ce que le dictionnaire définit comme " la détérioration progressive d'un service ou d'un produit provoquée par une réduction de la qualité du service fourni, notamment d'une plateforme en ligne, et en conséquence de la recherche du profit ".

Essentiellement lorsque quelque chose devient de plus en plus merdique – en particulier lorsqu’il s’agit d’applications et de plateformes numériques qui sont utiles au début et qui se dégradent considérablement petit à petit.

Pensez à ce qu'Elon Musk a fait à un Twitter rebaptisé. Le summum de l'enshittification.

Doctorow a décrit cette détérioration comme un processus en trois parties : " Tout d'abord, les plateformes sont bonnes pour leurs utilisateurs ; ensuite, elles abusent de leurs utilisateurs pour améliorer la situation de leurs clients professionnels ; enfin, elles abusent de ces clients professionnels pour récupérer toute la valeur pour elles-mêmes. C'est frustrant. C'est démoralisant. C'est même terrifiant. "

Le même mot a été nommé à la fois par le Choix du public et par le Choix du comité.

Le comité a déclaré que le gagnant est un " terme anglo-saxon très basique, enveloppé d'affixes qui l'élèvent au point d'être presque formel, presque respectable ".

" Ce mot résume ce que beaucoup d’entre nous ressentent comme étant en train d’arriver au monde et à de nombreux aspects de nos vies en ce moment. "

Ce nom familier a battu d'autres mots comme " rawdogging " (entreprendre un vol long-courrier sans divertissement) ; " droit à la déconnexion » (une loi qui accorde aux employés le droit de ne pas travailler ou d'être contactés à propos du travail en dehors des heures de travail) ; et " brainrot " (contenu considéré comme de faible qualité en termes de stimulation intellectuelle).

 

Auteur: Internet

Info: https://www.euronews.com/, David Mouriquand, 26 Novembre 2024

[ merdification ] [ emmerdification ] [ réseaux sociaux ] [ capitalisme ] [ merdocène ]

 

Commentaires: 0

Ajouté à la BD par miguel

nano-monde

Quelle est cette physique inconnue soulevée par le LHC ?

Une équipe internationale de chercheurs a observé pour la première fois une forme de désintégration inédite du boson de Higgs, jetant un éclairage nouveau sur les mystères de l'Univers et suggérant l'existence de phénomènes physiques encore inexplorés. Cette découverte, fruit de l'analyse de données recueillies lors des collisions de protons au Grand Collisionneur de Hadrons (LHC) du CERN, marque un pas de géant dans notre compréhension du monde subatomique.

Le boson de Higgs, une particule élémentaire prédite dans les années 1960 et découverte avec certitude en 2012, joue un rôle crucial dans le Modèle standard de la physique des particules. Il est associé à un champ, omniprésent dans l'Univers, qui confère leur masse aux autres particules. Sa capacité à interagir avec diverses particules et champs avait été mesurée avec précision, confirmant les prédictions jusqu'à présent.

L'observation récente concerne une désintégration du boson de Higgs en un photon, ou quantum de lumière, et un boson Z, une particule sans charge électrique impliquée dans la transmission de la force faible, l'une des quatre forces fondamentales de l'Univers. Selon la théorie, ce processus est extrêmement rare, survenant environ 15 fois sur 10 000 désintégrations. Toutefois, les données recueillies par les collaborations ATLAS et CMS montrent un taux de désintégration supérieur, à 34 occurrences pour 10 000, ce qui soulève des questions sur la possibilité de nouvelles particules ou forces au-delà du Modèle standard.

Cette différence notable par rapport aux prédictions théoriques, bien qu'encore insuffisante pour exclure une fluctuation statistique, suggère la possibilité d'une nouvelle physique. Elle ouvre notamment la porte à des théories telles que la supersymétrie, qui propose une relation entre les particules de demi-spin et de spin entier, offrant des réponses potentielles à certaines des grandes énigmes de la physique, comme la nature de la matière noire et l'énorme écart entre les forces faible et gravitationnelle.

La détection de cette désintégration a nécessité une analyse minutieuse des résultats des collisions de protons au LHC, où les scientifiques ont dû compenser l'incapacité à observer directement le boson Z en mesurant l'énergie des électrons ou des muons produits lors de sa désintégration. Cette prouesse technique souligne l'extraordinaire précision avec laquelle les physiciens peuvent aujourd'hui tester les fondements de notre compréhension de l'Univers.

Les chercheurs se tournent désormais vers l'avenir, avec l'anticipation de données encore plus précises provenant de la prochaine phase du LHC et du futur Grand Collisionneur de Hadrons à haute luminosité, promettant des découvertes sur la structure fondamentale de la matière.

 

Auteur: Internet

Info: https://www.techno-science.net/,  Adrien le 18/02/2024, Source: Physical Review Letters

[ physique fondamentale ] [ infra-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

astrophysique

Notre galaxie pourrait être posée au milieu d'un gigantesque vide cosmique qui mystifie les astronomes

(Image : De quoi se sentir très très seuls.)

Penser à l'espace et à l'immensité vous donne des sueurs froides? Passez votre chemin. Des astronomes ont émis l'hypothèse que notre galaxie serait posée au milieu du plus grand vide cosmique jamais observé. Proposée dès 2013, cette théorie accumule depuis de plus en plus de preuves, comme le relate un article de Business Insider.

Le problème, c'est que ce vide n'a rien à faire là. Selon une théorie fondamentale appelée " principe cosmologique ", toute la matière dans l'espace devrait être répartie, sur de très grandes échelles, de manière homogène. Un principe qui permet notamment aux chercheurs d'appliquer les mêmes lois de la physique aux objets célestes, qu'ils soient à côté de la Terre ou à l'autre bout de l'univers.

Malheureusement pour nos astrophysiciens, de multiples observations effectuées ces dix dernières années suggèrent que certaines zones de l'univers seraient bien plus denses que d'autres et, qu'autour de nous, cela ne serait pas dense du tout.

Désormais, il est assez clair que nous nous trouvons dans une sous-densité significative ", affirme Indranil Banik, chercheur à l'université de Saint Andrews, en Écosse. " Il y a quelques personnes qui s'y opposent dans une certaine mesure. Par exemple, certains ont avancé qu'un tel vide ne devrait pas exister dans le modèle standard, ce qui est vrai. Mais cela ne prouve malheureusement pas qu'il n'y en a pas", précise l'astrophysicien britannique.

Vend vide cosmique spacieux, jolis volumes

Dans une étude qu'il a cosignée et publiée dans la revue scientifique Monthly Notices of the Royal Astronomical Society, Indranil Banik suggère que notre galaxie se trouverait presque au milieu de ce vide, renommé " KBC void " ou " vide KBC ", dont le diamètre est estimé à 2 milliards d'années-lumière de diamètre. Pour vous donner une idée, c'est assez volumineux, puisque l'on pourrait y aligner 20.000 galaxies de la taille de la Voie lactée en file indienne.

D'après ses calculs, le vide KBC serait 20% plus vide que l'espace à l'extérieur de ses frontières –il ne peut pas être totalement vide, vu que nous sommes dedans. Cela peut paraître peu, mais cette différence significative suffit à provoquer certains comportements anormaux, tout du moins du point de vue des normes utilisées aujourd'hui par les astrophysiciens.

Le plus flagrant de ces comportements étranges est la vitesse anormalement élevée à laquelle les étoiles et les galaxies voisines de notre système solaire s'éloignent de nous. Les cosmologistes se basent habituellement sur la constante de Hubble pour décrire la vitesse d'expansion de l'univers. Sauf que notre voisinage proche vient contredire cette constante. De quoi se gratter la tête en fronçant les sourcils. 

Pour Indranil Banik et ses collègues, cela pourrait s'expliquer par la gravité accrue des régions à haute densité de matière, synonyme d'attraction plus forte entre objets célestes et donc de tensions dans la constante de Hubble. Pour confirmer cette hypothèse, les chercheurs ont prévu d'étudier les données de supernovas pour voir si, en dehors du vide KBC, la constante de Hubble revient à la normale.

C'est la principale chose qui me préoccupe: savoir si les supernovas montrent vraiment que nous sommes réellement dans un univers qui s'expand plus rapidement et qu'il n'y a aucune limite à ce vide ", conclut Indranil Banik. Rassurant, non?



 

Auteur: Internet

Info: https://korii.slate.fr/ - Clément Poursain - 17 mai 2024

[ isolement galactique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

quanticité

Accélération quantique découverte pour une vaste classe de problèmes difficiles

Il a toujours été difficile de trouver des questions importantes auxquelles les ordinateurs quantiques peuvent répondre plus rapidement que les machines classiques, mais un nouvel algorithme semble le faire pour certaines tâches d'optimisation critiques.

Les chercheurs en informatique quantique ont développé un nouvel algorithme, Decoded Quantum Interferometry (DQI), capable de résoudre une vaste classe de problèmes d'optimisation plus rapidement que toutes les méthodes classiques connues. Cette avancée marque une rupture dans la compétition entre approches quantiques et classiques, où les avantages quantiques restaient jusqu'ici éphémères ou contestés.

Fonctionnement clé de DQI

Inspiration et méthode

1 Traduction quantique :

- Les solutions potentielles sont converties en ondes quantiques via une transformée de Fourier quantique.

- Les meilleures solutions correspondent aux amplitudes quantiques les plus élevées.

2 Intégration de techniques de décodage :

L'algorithme s'appuie sur des méthodes de correction d'erreurs (décodage) issues de la cryptographie, initialement conçues pour identifier et corriger des messages bruités.

3 Optimisation par interférences :

Les interférences constructives/destructrices des ondes quantiques amplifient les bonnes solutions tout en atténuant les mauvaises.

Avantages par rapport aux méthodes classiques

Aspect                         Approche classique                     DQI (Quantique)

Complexité                  Sous-exponentielle                      Polynomiale

Exploration                  Séquentielle                                 Parallèle 

                                    (méthodes heuristiques)              (superposition quantique)

Applications clés          Cryptographie, logistique            Cryptographie post-quantique, correction d'erreurs

Validations et limites

Vérifications : 

- L'équipe a collaboré avec Mary Wootters (experte en théorie des codes) pour exclure l'existence d'un équivalent classique efficace.

- Extension réussie à une classe étendue de problèmes d'optimisation (ex. : chemins optimaux).

Défis persistants :

- Matériel quantique insuffisant : Aucun ordinateur quantique actuel ne peut exécuter DQI en raison du nombre élevé de qubits requis.

- Risque de "déquantisation" : Possibilité qu'un algorithme classique égalisant DQI soit découvert ultérieurement.

Implications et réactions

Impact scientifique

Cryptographie : Menace accrue sur les systèmes RSA actuels, accélérant la transition vers des standards post-quantiques.

Théorie de l'information : Nouveaux outils pour l'encodage résilient aux erreurs dans les communications quantiques.

Réactions de la communauté

Gil Kalai (sceptique historique) : Qualifie DQI de "percée", soulignant sa rareté dans le domaine.

Ronald de Wolf (CWI) : Optimiste mais prudent, rappelant que la supériorité quantique reste à prouver empiriquement.

Ewin Tang (UC Berkeley) : Encourage les chercheurs classiques à étudier DQI pour inspirer de nouveaux algorithmes.

Perspectives

Bien que théorique, DQI ouvre des pistes pour :

- Concevoir des algorithmes hybrides (quantique-classique) exploitables sur les ordinateurs NISQ actuels.

- Repenser l'optimisation dans des domaines comme la logistique ou la chimie quantique.

- Stimuler l'innovation matérielle en identifiant des cas d'usage concrets pour les futurs qubits topologiques ou photoniques.

Conclusion : DQI représente une avancée majeure vers des avantages quantiques incontestables, tout en illustrant la nécessité de collaborations interdisciplinaires (physique, théorie des codes, IA) pour matérialiser le potentiel quantique.

Auteur: Internet

Info: https://www.quantamagazine.org/, stephen ornes, 17 mars 2025, réssumé par Deepseek

[ quantumness ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique théorique

Des physiciens ont transformé un ordinateur quantique en un cristal temporel* pour la première fois

Les cristaux temporels, à la différence des cristaux traditionnels tels que le diamant ou le quartz, présentent une structure atomique qui se répète non seulement dans l’espace, mais également dans le temps, sans intervention de forces externes. Ce concept, théorisé par le lauréat du prix Nobel Frank Wilczek en 2012, a captivé la communauté scientifique, qui s’emploie désormais à tenter d’exploiter cette caractéristique unique pour des applications en informatique quantique. Récemment, une percée majeure a été réalisée : la transformation d’un processeur quantique en cristal temporel, une avancée susceptible de redéfinir les standards de performance de cette technologie.

Depuis l’introduction de cette notion, physiciens et mathématiciens s’efforcent de fusionner ces idées avec des modèles théoriques existants. En 2016, des chercheurs américains ont tracé une voie prometteuse en s’appuyant sur les principes de la mécanique quantique. Depuis, la définition du cristal temporel s’est affinée pour mieux décrire la régularité des oscillations des particules constituant les atomes.

Au début de cette année, une équipe de l’Université de Dortmund, dirigée par le Dr Alex Greilich, a réussi un exploit scientifique en créant un cristal temporel avec une durée de vie d’au moins 40 minutes, soit dix millions de fois supérieure à celle des précédents cristaux. Pour parvenir à ce résultat, l’équipe a utilisé un cristal composé d’arséniure d’indium et de gallium, découvrant notamment que la polarisation des spins nucléaires pouvait induire des oscillations spontanées.

Vers une nette réduction des erreurs dans le calcul quantique

En juillet, des scientifiques des universités de Vienne et de Tsinghua sont parvenus à produire un cristal temporel à partir d’atomes géants. Cette avancée pourrait notamment servir au développement de capteurs d’une précision accrue.

Dans le cadre de l’informatique quantique, l’un des défis majeurs réside dans la préservation de l’état de cohérence des qubits (l’équivalent quantique des bits classiques). Ces derniers, en interagissant avec leur environnement, introduisent des variables supplémentaires qui perturbent le programme, ce phénomène étant amplifié à mesure que le nombre de qubits augmente. Un système inspiré des cristaux temporels pourrait atténuer ces erreurs en augmentant la cohérence et la stabilité des qubits.

Récemment, une équipe interuniversitaire, impliquant des chercheurs des universités de Tsinghua, du Maryland, de Harvard et de l’Iowa State, a progressé dans ce domaine en transformant un processeur quantique en cristal temporel. Au centre de cette avancée se trouvent les cristaux temporels topologiques et leur oscillation pendulaire distinctive.

Ce caractère permet au cristal temporel topologique de mieux résister aux interférences locales. Ainsi, l’oscillation pendulaire maintient un mouvement stable même lorsque des parties du système quantique subissent des perturbations. En passant de la théorie à la pratique, les chercheurs ont programmé une forme d’informatique quantique supraconductrice avec une cohérence hautement stable pour illustrer le comportement topologique du cristal. Cette réalisation a démontré qu’il est tout à fait possible de créer un système quantique encore moins sensible aux interférences variées.

Nous rapportons l’observation des signatures d’un tel phénomène — un cristal temporel topologiquement ordonné préthermique — avec des qubits supraconducteurs programmables disposés sur un réseau carré ", écrivent les chercheurs dans leur étude, publiée dans Nature Communications. En soumettant leur système quantique à divers tests, ils ont constaté qu’il gérait efficacement un niveau raisonnable de bruit environnant tout en maintenant une excellente stabilité.

Nos résultats montrent le potentiel d’explorer des phases exotiques de la matière topologiquement ordonnées hors équilibre avec des processeurs quantiques bruyants à échelle intermédiaire ", souligne l’équipe. Selon ces scientifiques, cette découverte ouvre la voie à l’utilisation des circuits supraconducteurs pour explorer d’autres domaines, notamment le mouvement hors équilibre des cristaux temporels.

 

Auteur: Internet

Info: https://trustmyscience.com/, Kareen Fontaine & J. Paiano·25 novembre 2024 *état exotique de la matière où les particules adoptent une structure qui se répète non seulement dans l'espace (comme un cristal ordinaire), mais aussi dans le temps. Cela signifie qu'il oscille spontanément entre différentes configurations à intervalles réguliers sans nécessiter d'énergie externe. Ces oscillations temporelles sont stables et robustes face à certaines perturbations, ce qui en fait un phénomène unique lié à la mécanique quantique. Les cristaux temporels ont des applications potentielles en informatique quantique, notamment pour améliorer la stabilité et la cohérence des qubits.

[ répétition structurelle ] [ durabilité technologique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

astrophysique

Des scientifiques ont peut-être identifié un élément de preuve que d’autres univers ont existé avant le nôtre 

Des scientifiques annoncent avoir identifié de potentielles preuves montrant que d’autres univers auraient existé avant le nôtre. Les conclusions de l’étude prennent appui sui l’observation d’éléments révélateurs dans le ciel nocturne, à savoir les " restes de trous noirs " d’un univers précédent.

Pour comprendre sur quoi s’appuie cette découverte, commençons par introduire la notion de " cosmologie cyclique ", ou " d’univers cycliques ". L’idée des univers cycliques est basée sur le modèle de la cosmologie cyclique conforme (CCC). Une théorie selon laquelle notre univers traverse des cycles constants incluant Big Bangs et compressions cosmiques, à la différence du modèle standard de la cosmologie, où il n’y aurait eu qu’un seul et même commencement (Big Bang).

Alors que la plus grande partie de l’univers serait détruite d’un cycle à l’autre, l’équipe de chercheurs affirme que certains rayonnements électromagnétiques pourraient survivre au processus de " renouvellement ". Leurs découvertes ont été publiées sur le serveur arXiv.

Ce que nous prétendons voir est le dernier vestige après qu’un trou noir se soit évaporé dans le précédent univers ", a déclaré à New Scientist Roger Penrose, physicien mathématicien à l’université d’Oxford. Penrose est aussi le co-auteur de l’étude et co-créateur de la théorie de la CCC.

La " preuve " se présente sous la forme de " points Hawking ", nommés ainsi d’après le regretté Stephen Hawking. Le célèbre physicien avait théorisé que les trous noirs émettraient des radiations connues sous le nom de rayonnement de Hawking. Penrose et ses collègues suggèrent qu’un tel rayonnement serait capable de passer d’un univers à un autre.

Selon eux, les points de Hawking pourraient apparaître dans la chaleur rémanente issue du Big Bang, connue sous le nom de fond diffus cosmologique (en anglais : Cosmic Microwave Background, CMB). Les points Hawking ressemblent à des cercles de lumière sur la carte du CMB, appelés " modes B ".

(Photo : À gauche, une simulation des modes E et à droite, une simulation des modes B. Ces modes décrivent la polarisation linéaire du rayonnement fossile. Les barres blanches indiquent l’orientation de la polarisation sur une zone de la voûte céleste. La théorie de l’inflation prédit l’existence des modes)

Auparavant, ces " points anormaux " (modes B) dans le CMB étaient supposés être causés par des ondes gravitationnelles de poussières interstellaires. Mais Penrose et ses collègues prétendent que leur théorie pourrait fournir une réponse intéressante. D’ailleurs, dans le cadre du projet BICEP2, qui vise à cartographier le CMB, des chercheurs pourraient déjà avoir découvert un point de Hawking.

Bien que cela semble problématique pour l’inflation cosmique, l’existence de tels points anormaux est une implication de la cosmologie cyclique conforme (CCC) ", écrit l’équipe dans son article. " Bien que la température à l’émission soit extrêmement basse, dans la CCC, ce rayonnement est très concentré, en raison de la compression conforme de l’ensemble du trou noir, résultant en un seul point dans notre aeon (ère cosmique) actuel " ajoutent les chercheurs.

La matière noire a été créée avant le Big Bang, selon une nouvelle théorie

La théorie d’un univers cyclique n’est pas sans controverse. La plupart de nos arguments actuels suggèrent que l’expansion de l’univers s’accélère, l’univers n’étant pas assez dense pour se comprimer en un seul point et se développer à nouveau (référence à la théorie du Big Bounce). Le Big Bounce (ou Univers phénix), est un modèle cosmologique cyclique impliquant une évolution de l’Univers menant à l’alternance entre Big Bang et Big Crunch (un Big Crunch est immédiatement suivi d’un Big Bang).

Pour le moment, il n’existe donc pas encore de véritables preuves cosmiques d’un rayonnement de Hawking, sans compter le fait que les points de Hawking mentionnés par les auteurs n’ont pas encore été validés (loin de là). Donc bien qu’il s’agisse d’une théorie intéressante, il reste encore beaucoup de chemin à parcourir avant que quiconque ne revendique l’existence définitive d’un univers antérieur.


 

 

Auteur: Internet

Info: https://trustmyscience.com/. Jonathan Paiano·17 août 2018, Sources : arXiv.org, New Scientist

[ au-delà ] [ périodicité ] [ recommencements ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

taxinomies

La lutte sans fin pour classer toutes les mathématiques



 Au XVIIIe siècle, la biologie était entièrement axée sur la taxonomie. L'incroyable diversité du vivant rendait difficile toute conclusion sur son apparition. Les scientifiques ont d'abord dû mettre les choses dans l'ordre, en regroupant les espèces selon des caractéristiques communes – une tâche ardue . Depuis, ils ont utilisé ces grands catalogues pour comprendre les différences entre les organismes et déduire leur histoire évolutive. Les chimistes ont construit le tableau périodique dans le même but : classer les éléments et comprendre leurs comportements. Et les physiciens ont élaboré le Modèle standard pour expliquer l'interaction des particules fondamentales de l'univers.

Dans son livre Les Mots et les Choses , le philosophe Michel Foucault décrit cette préoccupation pour le tri comme une étape fondatrice des sciences. " La connaissance des individus empiriques ", écrit-il, " ne peut s'acquérir que par la tabulation continue, ordonnée et universelle de toutes les différences possibles. "

Les mathématiciens n'ont jamais dépassé cette obsession . C'est parce que la ménagerie des mathématiques fait ressembler le catalogue biologique à une ferme pédagogique. Ses habitants ne sont pas limités par la réalité physique. Toute possibilité concevable, qu'elle existe dans notre univers ou dans un univers hypothétique à 200 dimensions, doit être prise en compte. Il existe une multitude de classifications différentes à essayer – groupes, nœuds, variétés, etc. – et une infinité d'objets à trier dans chacune de ces classifications. La classification permet aux mathématiciens de comprendre le monde étrange et abstrait qu'ils étudient et de prouver des théorèmes majeurs à son sujet.

Prenons l'exemple des groupes, un objet d'étude central en mathématiques. La classification des " groupes simples finis " – les éléments constitutifs de tous les groupes – a été l'une des plus grandes réalisations mathématiques du XXe siècle. Il a fallu près de 100 ans à des dizaines de mathématiciens pour la mener à bien. Ils ont finalement découvert que tous les groupes simples finis se répartissent en trois catégories , à l'exception de 26 valeurs aberrantes détaillées. Une équipe de mathématiciens dévoués travaille sur une preuve " condensée " de la classification depuis 1994 ; elle comprend actuellement 10 volumes et plusieurs milliers de pages, et n'est toujours pas terminée. Mais cette entreprise gigantesque continue de porter ses fruits, contribuant récemment à prouver une conjecture vieille de plusieurs décennies selon laquelle on peut déduire beaucoup de choses sur un groupe en examinant une petite partie de celui-ci.

Les mathématiques, libérées des contraintes habituelles de la réalité, sont une question de possibilités. La classification offre aux mathématiciens un moyen d'explorer ce potentiel illimité.

Nouveautés et points importants

La première classification mathématique que nous apprenons à l'école primaire consiste à catégoriser les nombres : en nombres positifs et négatifs, ou en nombres fractionnaires (les rationnels) et en nombres non fractionnaires (les irrationnels). Dans un récent article de Quanta , Erica Klarreich décrit combien il peut être extrêmement difficile de prouver qu'un nombre donné est irrationnel , même si les mathématiciens le soupçonnent. Il existe également de nombreux autres types de nombres que les mathématiciens aiment étudier.

Dans d'autres domaines, les mathématiciens classent les objets selon leur " équivalence " d'une certaine manière. En topologie, deux formes sont identiques, et appartiennent donc à la même classe, si l'une peut être étirée ou comprimée dans l'autre sans se casser ni se déchirer. Un beignet est identique à une tasse à café, mais différent d'une sphère. Mais il peut s'avérer extrêmement difficile de déterminer si des objets plus complexes (et de grandes dimensions) sont identiques. Les mathématiciens cherchent encore à déterminer si toutes les formes de certaines dimensions doivent être équivalentes à une sphère, par exemple, ou si des formes plus exotiques sont autorisées. " Après des siècles d'efforts concertés ", écrit Kevin Hartnett dans ce résumé topologique , " les mathématiciens sont loin d'avoir terminé. "

De même, la classification a joué un rôle important dans la théorie des nœuds. Faites un nœud dans une ficelle, puis collez les extrémités de la ficelle ensemble : c'est un nœud mathématique. Les nœuds sont équivalents si l'un peut être emmêlé ou démêlé, sans couper la ficelle, pour correspondre à l'autre. Cette tâche, d'apparence banale, a de nombreuses applications mathématiques . En 2023, cinq mathématiciens ont progressé sur une conjecture clé de la théorie des nœuds, selon laquelle tous les nœuds ayant une certaine propriété (ce qui est " tranche " - slice) doivent également en avoir une autre (être " ruban " - ribbon), avec une preuve éliminant un contre-exemple présumé. (Soit dit en passant, je me suis souvent demandé pourquoi les théoriciens des nœuds insistent pour utiliser des noms comme adjectifs).

Les classifications peuvent aussi devenir plus méta. Les informaticiens théoriciens et les mathématiciens classent les problèmes de classification en fonction de leur " difficulté " .

Toutes ces classifications transforment l'infinitude désordonnée des mathématiques en un ordre accessible. Un premier pas vers la maîtrise du déluge qui se déverse des imaginations mathématiques.



 

Auteur: Internet

Info: https://www.quantamagazine.org/, Joseph Howlett, mars 2025

[ rangements ] [ classements ] [ algèbre ] [ abstractions ] [ miroir anthropique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

astrophysique

La découverte d’un lien entre les trous noirs et la matière noire pourrait résoudre le " problème du parsec final "

 Les trous noirs sont considérés comme les objets astrophysiques les plus captivants. Plusieurs hypothèses ont été avancées concernant leur formation, notamment en ce qui concerne les trous noirs supermassifs (SMBH). Récemment, en adoptant une nouvelle approche, des chercheurs canadiens ont identifié un lien entre les trous noirs supermassifs et les particules de matière noire. Dans une nouvelle étude, ils suggèrent que la fusion de SMBH donnant lieu à un seul trou noir plus massif est influencée par le comportement des particules de matière noire. Cette découverte, selon eux, pourrait contribuer à résoudre le " problème du parsec final ".

Dans une étreinte gravitationnelle, les trous noirs supermassifs gravitent lentement les uns vers les autres. Selon les astronomes, leur rapprochement progressif devrait causer une émission d’ondulation dans la structure de l’espace-temps détectable depuis la Terre. C’est d’ailleurs ce que la communauté scientifique a avancé en 2023, lorsqu’un " bourdonnement " persistant d’ondes gravitationnelles raisonnant à travers l’Univers a été détecté. D’après les chercheurs, ce signal, aussi appelé " murmure de l’Univers ", pourrait être dû à la fusion de millions de trous noirs supermassifs, sur des milliards d’années.

Cependant, des simulations ont montré que lorsque des paires de SMBH se rapprochent dans un mouvement de spirale, leur approche s’arrête lorsqu’ils sont séparés d’environ un parsec (environ trois années-lumière), comme s’ils se répulsaient, empêchant ainsi la fusion. C’est ce résultat qui a donné son nom au " problème du parsec final ".

Récemment, une équipe de recherche de l’Université de Toronto et de l’Université McGill, dirigée par Gonzalo Alonso-Álvarez, semble avoir trouvé la solution dans le cadre d’une nouvelle étude publiée dans la revue Physical Review Letters. D’après eux, la clé réside dans l’inclusion de la matière noire, qui a longtemps été sous-estimée dans le cadre de ce processus. " Nous montrons que l’inclusion de l’effet de la matière noire, jusqu’alors négligé, peut aider les trous noirs supermassifs à surmonter ce parsec final de séparation et à fusionner. Nos calculs montrent comment cela peut se produire, contrairement à ce que l’on pensait jusqu’ici ", explique Alonso-Álvarez dans un communiqué de l’Université de Toronto.

Et si la matière noire n’était pas une substance passive et sans interaction ?

L’une des substances les plus mystérieuses de l’Univers est sans doute la matière noire (elle constituerait environ 85 % de la matière dans le cosmos). Bien qu’elle ne soit pas visible, elle témoigne de sa présence par le biais de ses effets gravitationnels sur la matière visible. Longtemps, les scientifiques ont pensé que cette matière était à la fois passive et sans interaction. Toutefois, ce n’est peut-être pas le cas. Alonso-Álvarez et son équipe suggèrent que si les particules de matière noire disposaient d’une propriété d’auto-interaction, cela génèrerait une impulsion supplémentaire pour " rassembler " les SMBH. Cette " matière noire auto-interactive " agirait par la suite comme une sorte de " colle " cosmique, permettant aux trous noirs de fusionner.

Mais la véritable question est de savoir, dans ce cas, comment cela est possible. Lorsque deux galaxies entrent en collision, leurs trous noirs centraux orbitent l’un autour de l’autre vers l’intérieur, en raison des interactions gravitationnelles avec les étoiles à proximité. Ils traversent ensuite un " pic " de concentration (très dense) de matière noire. Si cette matière noire n’interagit pas, ce pic est perturbé par le mouvement des trous noirs. En revanche, les particules de matière noire peuvent maintenir et stabiliser la structure du pic, à condition de " rebondir " les unes sur les autres.

La possibilité que les particules de matière noire interagissent les unes avec les autres est une hypothèse que nous avons formulée, un ingrédient supplémentaire que tous les modèles de matière noire ne contiennent pas ", a déclaré Alonso-Alvarez. Il avance que leur argument réside sur le fait que " seuls les modèles contenant cet ingrédient peuvent résoudre le problème final du Parsec ".

Cette solution résout ainsi potentiellement le mystère cosmique détecté par le Pulsar Timing Array en 2023, ainsi que le problème du parsec final. D’après les chercheurs, même si la forme de ce signal d’ondes gravitationnelles ne correspond pas parfaitement à ce que l’on attend de modèles standard, leur modèle de matière noire en auto-interaction peut produire un spectre d’ondes gravitationnelles plus adapté à ces observations.

James Cline, co-auteur de l’étude, de l’Université McGill et du CERN, explique : " Une prédiction de notre proposition est que le spectre des ondes gravitationnelles observées par les réseaux de synchronisation de pulsars devrait être adouci aux basses fréquences. Les données actuelles suggèrent déjà ce comportement, et de nouvelles données pourraient le confirmer dans les prochaines années ".

L’étude d’Alonso-Alvarez et de ses collègues met en exergue le potentiel des ondes gravitationnelles dans le sondage de la nature de la matière noire. En revanche, des travaux supplémentaires devront être réalisés pour confirmer cette possibilité. " Notre travail est une nouvelle façon de nous aider à comprendre la nature particulaire de la matière noire ", a déclaré Alonso-Álvarez. " Nous avons découvert que l’évolution des orbites des trous noirs est très sensible à la microphysique de la matière noire, ce qui signifie que nous pouvons utiliser les observations de fusions de trous noirs supermassifs pour mieux comprendre ces particules ", conclut-il.



 

Auteur: Internet

Info: https://trustmyscience.com/, Kareen Fontaine & J. Paiano, 24 juillet 2024

[ masse manquante ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste