Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 114
Temps de recherche: 0.0847s

nouveau paradigme

On demande parfois aux scientifiques s'ils entreprennent de nouvelles expériences en laboratoire ou s'ils continuent à reproduire les précédentes avec des résultats prévisibles. Si la plupart des scientifiques font la première chose, la croissance scientifique dépend également de la seconde et de la validation de ce que nous pensons savoir à la lumière de nouvelles informations.

Le National Institute of Standards and Technology (NIST) a examiné la structure et les propriétés du silicium, un matériau très étudié, dans le cadre de nouvelles expériences, et les résultats ont permis d'entrevoir une fenêtre possible pour détecter la "cinquième force". Ce qui pourrait nous aider à mieux comprendre le fonctionnement de la nature.

En termes simples, nous n'avons besoin que de trois dimensions de l'espace, à savoir nord-sud, est-ouest et haut-bas, et d'une dimension du temps, à savoir passé-futur, pour donner un sens au monde. Toutefois, comme l'a affirmé Albert Einstein dans sa théorie de la gravité, la masse déforme les dimensions de l'espace-temps.

Selon l'émission Science Focus de la BBC, dans les années 1920, Oskar Klein et Theodor Kaluza ont proposé l'hypothèse des cinq dimensions pour expliquer les forces de la nature, en plus de la gravité, seule force électromagnétique connue.

La découverte des forces nucléaires forte et faible a toutefois fait progresser l'hypothèse de Klein et Kaluza, qui fut fusionnée avec les forces électromagnétiques pour élaborer le modèle standard, qui explique la plupart des phénomènes naturels, mais pas tous.

Alors que les physiciens se tournent vers la théorie des cordes pour expliquer pourquoi la gravité est si faible, l'idée d'une vaste cinquième dimension refait surface, ce qui pourrait également expliquer la présence de matière noire.

Pour mieux comprendre la structure cristalline du silicium, les chercheurs du NIST l'ont bombardé de neutrons et ont évalué l'intensité, les angles et les intensités de ces particules pour tirer des conclusions sur la structure.

Des ondes stationnaires sont générées entre et au-dessus des rangées (ou feuilles) d'atomes lorsque les neutrons traversent la structure cristalline. Lorsque ces ondes se rencontrent, elles produisent de minuscules motifs connus sous le nom d'oscillations de pendellösung, qui fournissent des informations sur les forces rencontrées par les neutrons au sein de la structure.

Chaque force est véhiculée/représentée par des particules porteuses, dont la portée est proportionnelle à leur masse.

Par conséquent, une particule sans masse, telle qu'un photon, a une portée infinie et vice versa (dans les deux sens). En limitant la portée sur laquelle une force peut agir, on limite également sa puissance. Des expériences récentes ont permis de limiter la puissance de la cinquième force présumée sur une échelle de longueur allant de 0,02 à 10 nanomètres, indiquant ainsi une plage dans laquelle chercher la cinquième dimension où cette force opère.

La poursuite des recherches dans ce domaine pourrait bientôt conduire à la découverte de cette nouvelle dimension et, pour la première fois dans les écoles, les professeurs de physique, tout comme les étudiants, pourront se pencher sur un concept abstrait.

Auteur: Internet

Info: Nous sommes sur le point de découvrir la 5e dimension, ce qui va changer tout ce que nous savons de la physique.http://amazingastronomy.thespaceacademy.org/2022/09

[ interactions fondamentales unifiées ] [ gravitation - électromagnétisme ] [ univers quantique et matière condensée ] [ penta ]

 

Commentaires: 0

Ajouté à la BD par miguel

linguistique

La notion de physique a évolué entre l’Antiquité et l’époque moderne, où l’on distingue en français la physique et le physique. Histoire d’une bifurcation étymologique… 

Du grec à l’origine

Le mot physique a visiblement une forme grecque, avec son i grec, avatar d’upsilon (υ, Υ), et son ph, représentant le p aspiré noté phi (φ, Φ) en grec ancien, et bien distinct du ƒ latin. En effet, physique vient du latin physica, lui-même emprunté au grec phusikê (φυσικη).

Et parce que le ph a fini par se prononcer comme un ƒ, certaines langues l’ont abandonné (en même temps que le y) : c’est le cas de l’italien (fisica) et de l’espagnol (física), mais certes pas du français, ni de l’anglais (physics) ou de l’allemand (Physik).

L’origine naturaliste de la physique

Le point de départ est une racine indoeuropéenne signifiant "naître, croître, être", à laquelle se rattache le verbe grec phuein "naître, pousser", surtout pour les êtres vivants, d’où notamment phuton "plante, ce qui pousse", et en français l’élément phyto-, de la phytothérapie par exemple.

Du verbe phuein dérive aussi le nom phusis, désignant d’abord le règne vivant, puis en philosophie (chez Platon) la nature au sens large, y compris la matière inerte et tout l’univers… (de même en latin, natura "nature" vient de nasci "naître"). Enfin, de phusis "nature" on arrive à l’adjectif phusikos "relatif à la nature", où la nature est prise au sens restreint du monde vivant ou au sens large.

De là, l’évolution en latin et en ancien français va aboutir à deux champs sémantiques : l’un en rapport avec les êtres vivants, et surtout avec l’être humain : le physique d’une personne et l’adjectif physique à propos de ses caractères physiques, de sa force physique… (cf. en anglais physician "médecin") ; l’autre en rapport avec la nature au sens large : la physique, c’est-à-dire la science qui étudie les propriétés générales de la matière et les lois qui régissent les phénomènes matériels (cf. en anglais physicist "physicien"). 

Au commencement était Aristote

Cette dernière acception doit beaucoup, sinon tout, à Aristote qui, à Athènes entre 335 et 323 avant J.-C., écrivait ses Leçons de physique (Phusikês akroaseôs), ce qu’il est convenu de nommer la Physique d’Aristote.

Cet ouvrage traite de notions fondamentales comme la matière et la forme, le mouvement et le changement, l’infini, le vide, le temps… des notions auxquelles la physique n’a pas cessé de s’intéresser depuis, et Aristote étudiait aussi le monde vivant, mais dans d’autres traités, dont sa remarquable Histoire des animaux.

Et même si de nos jours le nom de la physique n’évoque plus les êtres vivants, il est bien formé sur le même radical phys– que les mots de la biologie comme physiologie (d’où l’anglais physiology), du grec physiologia "dissertation sur la nature" déjà attesté chez Aristote, et l’élément physio– sert à former de nombreux mots, comme physionomie, du grec phusiognômonia "art de juger quelqu’un d’après… le physique", encore une fois chez Aristote.

Épilogue : La physique moderne peut être quantique, relativiste, atomique, ou encore nucléaire… ce qui ramène au végétal, donc au vivant. Pourquoi cela ? Simplement parce que l’adjectif nucléaire remonte au latin nucleus, dont le sens premier est… "cerneau de noix", nucleus dérivant de nux, nucis "noix", d’où vient aussi noyau (cf. en anglais, atomic nucleus "noyau atomique").

Au-delà de la boutade étymologique, l’observation de la nature est bien à l’origine de toutes les connaissances humaines.

Auteur: Avenas Pierre

Info:

[ priméité ] [ monde visuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Une découverte pourrait bouleverser un principe fondamental de la physique des particules 

L’une des règles fondamentales qui régissent le champ de la physique explique que les particules de charges opposées vont s’attirer, tandis que celles dont la charge est identique vont se repousser. Un principe qui, en réalité, peut être démenti, comme le dévoilent des chercheurs de l’université britannique d’Oxford dans une récente étude.

La science physique est régie par un certain nombre de règles fondamentales. L’un de ces principes établit que les particules peuvent être dotées d’une charge positive ou négative, qui va dicter leur comportement en présence d’autres particules.

Ainsi, si vous mettez en présence deux particules qui ont des charges opposées, elles vont s’attirer. En revanche, celles qui possèdent la même charge vont se repousser. Cette force électrostatique, connue sous le nom de "loi de Coulomb", se fait plus forte au fur et à mesure que la charge totale augmente et que les particules se rapprochent.

Néanmoins, des chercheurs de l’université d’Oxford (Royaume-Uni) ont récemment découvert que, dans certaines circonstances, les particules pouvaient attirer celles de la même charge. Ces exceptions ont été évoquées dans une étude parue le 1er mars dans la revue scientifique Nature Nanotechnology.

Une nouvelle force d’attraction découverte

Dans le détail, les scientifiques qui ont pris part à cette étude ont appris qu’il existait des particules chargées qui, lorsqu’elles se retrouvent en suspension dans certaines solutions, vont attirer des particules de même charge. Il arrive même que cela se produise sur des distances relativement longues, précisent les experts, qui ont aussi remarqué que les particules chargées positivement et négativement se comportaient différemment selon les solutions.

L’équipe, qui a réalisé divers tests, a mis en suspension des microparticules de silice chargées négativement dans l’eau. Une opération qui a démontré aux spécialistes que, sous un certain niveau de pH, ces particules pouvaient s’attirer les unes les autres pour former des amas de forme hexagonale. Un constat qui, a priori, viole le principe électromagnétique de base selon lequel les particules de même charge sont répulsives à n’importe quelle distance.

La structure des solvants au cœur de cette étude

Dans un second temps, les universitaires ont décidé d’étudier cet effet en adoptant une autre stratégie. Cette fois-ci, ils ont eu recours à une théorie des interactions interparticulaires qui prend en compte la structure du solvant. Cette technique s’est avérée payante, puisqu’ils ont mis au jour une nouvelle force d’attraction, capable de vaincre la répulsion électrostatique.

Or, ce n’était pas le cas en ce qui concerne les particules de silice aminée chargées positivement. Quel que soit le pH, cette interaction reste en effet répulsive dans l’eau. Les chercheurs, désireux de savoir s’il était possible d’inverser la situation, ont découvert qu’en utilisant un solvant différent (des alcools, en l’occurrence), les particules négatives restaient répulsives, tandis que les particules chargées positivement se regroupaient.

Aux yeux des auteurs de cette étude, ces enseignements sont tout sauf anecdotiques. Ils pourraient, en effet, inciter leurs pairs à repenser considérablement les hypothèses formulées à ce jour dans ce domaine. Ces apprentissages pourraient également être mis en pratique dans le champ de la chimie et intervenir dans divers processus, tels que l’autoassemblage, la cristallisation et la séparation de phases. 

Auteur: Internet

Info: Sur geo.fr, Charline Vergne, 5 mars 2024

[ aimantation ] [ renversement ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

hypothèse évolutive

Les concepts biosémiotiques de Marcello Barbieri explorent l'idée que les organismes vivants peuvent être considérés comme des systèmes de signes. Il suggère que les unités fondamentales de la vie sont sémiotiques, ce qui signifie que les organismes et leurs comportements peuvent être compris comme des processus d'interprétation et de production de signes.

Ainsi c'est un système où les organismes et leurs actions peuvent être considérés comme un langage. Tout comme nous interprétons et produisons des signes pour communiquer un sens, les êtres vivants font de même à travers leurs comportements et leurs interactions. Cette perspective nous aide à comprendre la vie comme un processus dynamique de communication et d'interprétation basé sur des signes.

Dans sa théorie biosémiotique Marcello Barbieri propose deux aspects fondamentaux : la copie et le codage.

1. La copie, qui désigne le processus par lequel l'information biologique est transmise d'une génération à l'autre. Elle implique la réplication et la transmission du matériel génétique, tel que l'ADN. Ce processus de copie assure le transfert des traits et des caractéristiques des parents à la progéniture.

2. Le codage, quant à lui, fait référence à la traduction de l'information génétique en caractères phénotypiques. Il implique le décodage et l'interprétation des instructions génétiques par la machinerie cellulaire pour produire des caractéristiques physiques et des comportements particuliers. Le processus de codage est responsable de la traduction de l'information génétique dans le développement et le fonctionnement des organismes.

Ces deux aspects fonctionnent ensemble dans la biosémiotique pour faciliter la transmission et l'expression de l'information génétique. La copie assure la continuité du matériel génétique d'une génération à l'autre, tandis que le codage permet de traduire l'information génétique en traits et comportements visibles c'est à dire qu'elles peuvent être considérées comme des signes qui transmettent des informations sur les processus internes de l'organisme et les interactions avec l'environnement. 

Il y a donc ici un lien entre la biosémiotique et l'épigénétique qui réside dans la manière dont ces deux concepts contribuent à notre compréhension de la transmission et de l'expression de l'information biologique.

L'épigénétique fait référence aux changements dans l'expression des gènes qui n'impliquent pas de modifications de la séquence d'ADN sous-jacente. Ces changements peuvent être influencés par divers facteurs tels que des indices environnementaux, des choix de mode de vie et des interactions sociales.

Changements épigénétiques qui peuvent donc être considérés comme une forme de transmission d'informations puisqu'ils influencent l'expression de l'information génétique, entraînant des modifications du phénotype d'un organisme. Ces changements peuvent ensuite être hérités d'une génération à l'autre ou se produire de manière dynamique au cours de la vie d'un individu.

Les modifications épigénétiques agissent essentiellement comme une couche d'information qui influence l'expression des gènes et peut réagir à l'environnement. Elles peuvent être considérées comme une forme de codage, où l'information génétique sous-jacente est "interprétée" et modifiée pour répondre à des circonstances changeantes.

En comprenant l'interaction entre les facteurs génétiques et épigénétiques, la biosémiotique offre un cadre permettant d'explorer la manière dont l'information est transmise, interprétée et exprimée aux niveaux génétique et épigénétique. Cela nous aide à saisir la complexité des systèmes biologiques et le rôle du traitement de l'information dans la formation de la variation phénotypique et de l'adaptation.

Auteur: chatGPT4

Info: août 2023

[ biophysique ] [ interactivité ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde subatomique

Des physiciens comprennent enfin pourquoi l’interaction forte est si tenace 

Il existe quatre forces fondamentales : la force de gravité, l’électromagnétisme, l’interaction faible et l’interaction (ou force) forte. Cette dernière est la plus intense. L’interaction forte agit en liant les quarks au sein des protons et des neutrons. Elle maintient ainsi les nucléons ensemble pour former des noyaux atomiques. La force forte est jusqu’à 100 000 milliards de milliards de fois plus intense que la force de gravité. Malgré cette intensité, elle est relativement peu comprise, par rapport aux autres forces. Récemment, des chercheurs ont percé l’un des mystères de l’interaction forte expliquant sa ténacité et sont notamment parvenus à la mesurer de façon plus précise.

L’interaction forte est quantifiée par la constante de couplage (que les auteurs de l’étude choisissent d’appeler simplement " couplage "), notée αs (alpha s). Il s’agit d’un paramètre fondamental dans la théorie de la chromodynamique quantique (QCD).

La difficulté de la mesure de αs réside principalement dans sa nature très variable : plus deux quarks sont éloignés, plus le couplage est élevé, et plus l’attraction entre eux devient forte. À des distances faibles, où αs est encore faible, les physiciens parviennent à appliquer des méthodes de calcul basique pour déterminer le couplage. Cependant, ces techniques deviennent inefficaces à des distances plus importantes. Dans une nouvelle étude, des physiciens ont ainsi réussi à appliquer de nouvelles méthodes pour mieux déterminer αs à des distances plus importantes. 

Un calcul basé sur l’intégrale de Bjorken

Poussé par sa curiosité, l’un des chercheurs a testé l’utilisation de l’intégrale de Bjorken pour prédire αs sur de longues distances. Cette méthode permet de définir des paramètres relatifs à la rotation de la structure des nucléons et ainsi de calculer le couplage de la force forte à courte distance. Le scientifique ne s’attendait donc pas à faire une découverte de ce calibre en faisant cet essai. Pourtant, contre toute attente, ses résultats ont montré qu’à un moment donné, αs cesse d’augmenter pour devenir constant. Il a ainsi partagé ses découvertes avec son mentor qui avait, lui aussi, obtenu des résultats similaires dans des travaux antérieurs.

 "Ce fut une chance, car même si personne ne s’en était encore rendu compte, l’intégrale de Bjorken est particulièrement adaptée aux calculs de αs sur de longues distances ", déclarent les chercheurs dans un article du Scientific American. Les résultats ont été présentés lors de diverses conférences de physique, durant l’une desquelles l’auteur principal a rencontré un autre physicien, Stanley Brodsky, qui aurait appuyé les résultats obtenus.

Une méthode par holographie

En parallèle à cette découverte, d’autres physiciens ont travaillé sur la mise au point d’une autre méthode de calcul de αs sur de longues distances, qu’ils ont appelée " holographie du front lumineux ". L’holographie est une technique mathématique qui a initialement été développée dans le contexte de la théorie des cordes et de la physique des trous noirs.

Cependant, en physique des particules, elle sert à modéliser des phénomènes en quatre dimensions (incluant les trois dimensions spatiales et une dimension temporelle) en se basant sur des calculs effectués dans un espace à cinq dimensions. Dans cette méthode, la cinquième dimension n’est pas nécessairement une dimension physique réelle, mais peut servir d’outil mathématique pour faciliter les calculs. L’idée est que certaines équations complexes en quatre dimensions peuvent devenir plus simples ou plus intuitives quand elles sont envisagées dans un espace à cinq dimensions.

Auteur: Internet

Info: https://trustmyscience.com/ - Miotisoa Randrianarisoa & J. Paiano·15 avril 2024

[ gluons ] [ force de cohésion nucléaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Enfin, même si on découvrait des phénomènes quantiques dans le cerveau, leur caractère strictement imprévisible ne permettrait pas d'expliquer notre conception du libre arbitre. Comme l'a bien montré le philosophe Daniel Dennett, l'aléatoire pur ne confère à nos cerveaux "aucune forme valable de liberté" ("any kind of freedom worth having"). Souhaitons-nous vraiment que nos corps soient secoués de mouvements aléatoires et incontrôlables engendrés au niveau subatomique, qui rapprocheraient nos décisions des convulsions et des tics des patients souffrants du syndrome de Gilles de La Tourette, la fameuse "Danse de Saint-Guy" ? Rien n'est plus éloigné de notre conception de la liberté. La maladie de Tourette ne rend pas libre, bien au contraire. Jamais un coup de dés n'engendrera d'esprit libre.
Lorsque nous parlons du "libre arbitre", nous pensons à une forme beaucoup plus intéressante de liberté. Notre croyance en un libre arbitre résulte d'une observation élémentaire : dans des circonstances normales, nous prenons nos décisions en toute indépendance, en nous laissant seulement guider par nos idées, nos croyances et notre expérience passée, et en contrôlant nos pulsions indésirables. Nous exerçons notre libre arbitre chaque fois que nous avons la possibilité d'examiner les choix qui s'offrent à nous, d'y réfléchir posément et d'opter pour celui qui nous parait le meilleur. Une part de hasard entre dans nos choix volontaires, mais elle n'en constitue pas un élément indispensable. La plupart du temps, nos actions volontaires n'ont rien d'aléatoire : elles résultent d'un examen attentif des options disponibles, suivi du choix délibéré de celle qui emporte notre préférence.
Cette conception du libre arbitre n'a nul besoin de la physique quantique - elle pourrait être simulée par un ordinateur standard. Elle exige simplement un espace de travail qui recueille les informations en provenance des sens et de la mémoire, en fasse la synthèse, évalue les conséquences de chaque option, y consacre autant de temps que nécessaire et utilise cette réflexion pour guider notre choix. Voilà ce que nous appelons une décision volontaire, délibérée, prise "en toute conscience". En bref, l'intuition du libre arbitre doit être décomposée.
Elle recouvre, d'une part, l'idée que nos décisions sont fondamentalement indéterminées, non contraintes par la physique (une idée fausse) ; et d'autre part, celle que nous les prenons en toute autonomie (une idée respectable). Nos états cérébraux sont nécessairement déterminés par des causes physiques, car rien de ce qui est matériel n'échappe aux lois de la nature. Mais cela n'exclut pas que nos décisions soient réellement libres, si l'on entend par là qu'elles s'appuient sur une délibération consciente, autonome, qui ne rencontre aucun obstacle et qui dispose du temps suffisant pour évaluer le pour et le contre avant de s'engager. Quand toutes ces conditions sont remplies, nous avons raison de dire que nous avons exercé notre libre arbitre et pris une décision volontaire - même si celle-ci est toujours, en dernière analyse, déterminée par nos gènes, notre histoire et les fonctions de valeurs qui sont inscrites dans nos circuits neuronaux. Les fluctuations de l'activité spontanée de ces réseaux rendent nos décisions imprévisibles, y compris à nos propres yeux. Cependant, ce caractère imprévisible ne devrait pas être retenu comme l'un des critères essentiels du libre arbitre, ni ne devrait être confondu avec l'indétermination fondamentale de la physique quantique. Ce qui compte pour qu'une décision soit libre, c'est l'autonomie de la délibération.
Une machine pourvue d'un libre arbitre n'est absolument pas une contradiction dans les termes, juste une définition de ce que nous sommes.

Auteur: Dehaene Stanislas

Info: Le code de la conscience

[ miroir ]

 

Commentaires: 0

astrophysique

Notre galaxie pourrait être posée au milieu d'un gigantesque vide cosmique qui mystifie les astronomes

(Image : De quoi se sentir très très seuls.)

Penser à l'espace et à l'immensité vous donne des sueurs froides? Passez votre chemin. Des astronomes ont émis l'hypothèse que notre galaxie serait posée au milieu du plus grand vide cosmique jamais observé. Proposée dès 2013, cette théorie accumule depuis de plus en plus de preuves, comme le relate un article de Business Insider.

Le problème, c'est que ce vide n'a rien à faire là. Selon une théorie fondamentale appelée " principe cosmologique ", toute la matière dans l'espace devrait être répartie, sur de très grandes échelles, de manière homogène. Un principe qui permet notamment aux chercheurs d'appliquer les mêmes lois de la physique aux objets célestes, qu'ils soient à côté de la Terre ou à l'autre bout de l'univers.

Malheureusement pour nos astrophysiciens, de multiples observations effectuées ces dix dernières années suggèrent que certaines zones de l'univers seraient bien plus denses que d'autres et, qu'autour de nous, cela ne serait pas dense du tout.

Désormais, il est assez clair que nous nous trouvons dans une sous-densité significative ", affirme Indranil Banik, chercheur à l'université de Saint Andrews, en Écosse. " Il y a quelques personnes qui s'y opposent dans une certaine mesure. Par exemple, certains ont avancé qu'un tel vide ne devrait pas exister dans le modèle standard, ce qui est vrai. Mais cela ne prouve malheureusement pas qu'il n'y en a pas", précise l'astrophysicien britannique.

Vend vide cosmique spacieux, jolis volumes

Dans une étude qu'il a cosignée et publiée dans la revue scientifique Monthly Notices of the Royal Astronomical Society, Indranil Banik suggère que notre galaxie se trouverait presque au milieu de ce vide, renommé " KBC void " ou " vide KBC ", dont le diamètre est estimé à 2 milliards d'années-lumière de diamètre. Pour vous donner une idée, c'est assez volumineux, puisque l'on pourrait y aligner 20.000 galaxies de la taille de la Voie lactée en file indienne.

D'après ses calculs, le vide KBC serait 20% plus vide que l'espace à l'extérieur de ses frontières –il ne peut pas être totalement vide, vu que nous sommes dedans. Cela peut paraître peu, mais cette différence significative suffit à provoquer certains comportements anormaux, tout du moins du point de vue des normes utilisées aujourd'hui par les astrophysiciens.

Le plus flagrant de ces comportements étranges est la vitesse anormalement élevée à laquelle les étoiles et les galaxies voisines de notre système solaire s'éloignent de nous. Les cosmologistes se basent habituellement sur la constante de Hubble pour décrire la vitesse d'expansion de l'univers. Sauf que notre voisinage proche vient contredire cette constante. De quoi se gratter la tête en fronçant les sourcils. 

Pour Indranil Banik et ses collègues, cela pourrait s'expliquer par la gravité accrue des régions à haute densité de matière, synonyme d'attraction plus forte entre objets célestes et donc de tensions dans la constante de Hubble. Pour confirmer cette hypothèse, les chercheurs ont prévu d'étudier les données de supernovas pour voir si, en dehors du vide KBC, la constante de Hubble revient à la normale.

C'est la principale chose qui me préoccupe: savoir si les supernovas montrent vraiment que nous sommes réellement dans un univers qui s'expand plus rapidement et qu'il n'y a aucune limite à ce vide ", conclut Indranil Banik. Rassurant, non?



 

Auteur: Internet

Info: https://korii.slate.fr/ - Clément Poursain - 17 mai 2024

[ isolement galactique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

outil technologique

Là où manque l'occasion d'extérioriser un talent, continue Feuerbach, le talent manque aussi ; (là où il n’y a pas d’espace pour l’action, il n'y a pas non plus d’impulsion : l’espace est la condition fondamentale de la vie de l’esprit : où l’espace manque pour extérioriser une capacité, manque aussi la capacité elle-même, etc.) ; et par suite, en conséquence, chaque nouvel appareil ou machine électrique dont la commodité s’installe dans notre privauté ou l’organisation sociale fait la dispense d’une capacité, d’un talent, d’une faculté que nous possédions auparavant ; opère une diminution fatale, une soustraction : chaque progrès technique abêtit la partie correspondante de l'homme, ne lui en laissant que la rhétorique, ainsi que Michelstaedter le rédigeait en 1910 à la lueur d’une lampe à huile : tous les progrès de la civilisation sont autant de régressions de l'individu (et qui se suicidait le lendemain). Nous autres dont la vie se déroule au crépuscule de ce long désenchantement à quoi le principe de rationalisme étroit et positif nous a réduits – régression qui “est essentielle au développement conséquent de la domination”, précise Adorno dans une annotation au Meilleur des mondes – pourrions être les témoins étonnés de ce processus de déperdition parvenu à son terme, si nous n’en étions pas, en notre personne, aussi le résultat.

C’est par définition qu’une victime d’un rétrécissement de la conscience n’en est pas consciente ; (d’où l’intérêt de ces tests de dépistage précoce de l’ESB humaine ou de l’Alzheimer pour en informer l’usager pendant qu’il comprend encore ce qu’on lui dit).

Suivons néanmoins cette idée (que notre conscience est conditionnée par notre présence physique dans le monde, que c’est l’obligation d'être là en personne qui nous fait conscients ; et qu’aussi bien c’est seulement par la conscience que nous pouvons être là en personne) : les appareils et machines de la vie facile, de la satisfaction immédiate et sans peine ne nous dépouillent donc pas seulement des facultés, talents et capacités qu’ils remplacent, mais, en même temps que de la fatigue à les employer, de l'effort et de l'attention indispensables, de la contrainte d’être là en personne ; et donc aussi de la conscience de soi, qui était seulement à l’occasion de cet exercice.

& c'est ici que je vous prie de renouveler votre attention : quand, fatigué, on prend l’ascenseur pour gagner son étage, qu’on est transféré directement de la rue à l’étage, on a forcément moins conscience de rentrer chez soi (et l’on ne peut pas se rendre compte de combien c’en est peu un) ; et l’on n’est pas seulement privé du temps passé avec soi-même en montant l’escalier, et avec la fatigue, du plaisir d’y atteindre, mais aussi bien de l’emploi de ses jambes : de la faculté de rentrer chez soi par ses propres moyens.

(Et c’est pourquoi ce sont des imbéciles ou des inconscients, ceux qui disent : c’est la même chose de recevoir des e-mails que des lettres dans la boîte au rez-de-chaussée : des malheureux surtout qui resteront toute leur existence dans l’ignorance de ce que c’est de remonter l’escalier dans la solitude de cette lettre qui n’est toujours pas venue, ou, enfin, un jour, qui est là avec son écriture dessus. Leur âme restera toujours vide de ces minutes-là, qui sont toute la clarté, toute la lumière, etc., “et nous restons sous leur emprise notre vie durant” ; de ces brefs moments “qui pourtant nous suffisent pour l’éternité” : par où notre existence est à elle-même sa propre éternité ; leur âme restera vide de cet escalier et un jour le néant les avalera comme se referme la porte automatique de l’ascenseur.)

Auteur: Bodinat Baudouin de pseudo

Info: La vie sur terre. Paris : Éditions de l’Encyclopédie des nuisances

[ critique ] [ réducteur d'expérience humaine ] [ appauvrissement sensible ] [ perte du poids de l'incarnation ]

 
Mis dans la chaine
Commentaires: 18
Ajouté à la BD par Coli Masson

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0