Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 20
Temps de recherche: 0.0361s

irresponsabilité

Leur idée – on peut dire la seule idée qui leur reste – c’est que le monde suit son chemin comme une locomotive lancée sur les rails, et dès qu’on leur demande de changer quoi que ce soit à ce qui est, ils parlent de retour en arrière. Supposez que demain – puisque nous sommes dans les suppositions, restons-y – les radiations émises sur tous les points du globe par les usines de désintégration modifient assez profondément leur équilibre vital et les sécrétions de leurs glandes pour en faire des monstres, ils se résigneront à naître bossus, tordus ou couverts d’un poil épais en se disant une fois de plus qu’on ne s’oppose pas au progrès. Le mot de progrès sera le dernier qui s’échappera de leurs lèvres à la minute où la planète volera en éclats dans l’espace. Leur soumission au progrès n’a d’égale que leur soumission à l’État, et elle a absolument le même caractère. Le progrès les dispense de jamais s’écarter d’un pas de la route suivie par tout le monde. L’État les décharge un peu plus chaque jour du soin de disposer de leur propre vie, en attendant le jour prochain – déjà venu pour des millions d’hommes en ce moment même – où il les exemptera de penser.

Auteur: Bernanos Georges

Info: Dans "La liberté, pour quoi faire ?", éditions Gallimard, 1995, page 92

[ fatalisme ] [ résignation ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

écologie

Il était une fois dans les années soixante quelques mamans japonaises qui en avaient ras-le-bol de nourrir leurs pitchounes aux pesticides, aux engrais et aux radiations nucléaires. Elles s'en allèrent trouver un paysan et lui dirent: "Paysan, nous en avons assez de manger de la merde. Nous te proposons un pacte. Nous t'achetons ta récolte de l'année prochaine et nous te payons dès aujourd'hui. En échange, tu nous vendras des légumes sains et nos enfants seront en bonne santé.
- D'accord, dit le paysan. Ainsi naquit le premier Teïkeï. Belle utopie? Pas du tout. Ce type d'association entre consommateurs et producteurs existe bel et bien. Ils se développent partout dans le monde, en snobant superbement les multinationales et leur sacro-sainte économie de marché. Au Japon, un foyer sur quatre participe aujourd'hui à un Teïkeï (seize millions de personnes). En Amérique du Nord, ce sont déjà cent mille familles qui se sont regroupées. En Grande-Bretagne, on compte plus de mille fermes reconverties. En Nouvelle-Zélande, en Hongrie, au Ghana, en Australie. Partout le phénomène prend de l'ampleur. En France, la première expérience a commencé en 2001 près de Toulon. Elle se répand depuis comme une traînée de poudre sous le nom d'Associations pour le maintien d'une agriculture paysanne (AMAP). Vingt projets de ce type ont été montés en 2002 en région PACA. En ce moment même, en France, quatre-vingts AMAP sont en train de voir le jour.

Auteur: Lammane Grite

Info: Manger bon et pas con CQFD octobre 2004

 

Commentaires: 0

biophysique

Maladie et mort cellulaire peuvent être transmises par ondes électromagnétiques.
Dès 1974, le docteur Vlail Petrovich Kaznacheev et son équipe de recherche (S. Stschurin, L. Michailova, etc.) de l'Institut de médecine clinique et expérimentale de Novossibirsk en Russie, mettent en évidence des communications photoniques entre les cellules.
Des cellules sont placées dans un tube scellé où elles baignent dans une solution nutritive. A proximité se trouve un autre tube scellé avec des cellules provenant du même tissu biologique. Lorsqu'on porte atteinte à l'une des cultures, par un virus ou un empoisonnement, on constate que les cellules du flacon voisin, bien que protégées de la transmission chimique par la paroi du flacon, deviennent malades à leur tour. C'est donc la preuve que les cellules envoient des informations aux autres cellules.
Les conditions de succès de cette expérience sont les suivantes. Elle a lieu dans l'obscurité. La fenêtre optique entre les deux tubes doit être en quartz. La durée du contact doit être supérieure à 4 ou 5 heures et si possible 48h. L'effet se manifeste au bout de 18 heures environ dans 70% des cas. Il n'a pas lieu si la fenêtre optique est en verre, qui arrête les ultraviolets. Après plus de 12'000 expériences, ces chercheurs ont montré que la communication entre cellules était effectuée par l'intermédiaire de radiations ultraviolettes de longueur d'onde 220 nm à 360 nm (référence, en russe: V.P. Kaznacheev, L.P. Mikhailova, Ultraweak Radiation in Cell Interactions, 1981, Nauka).
Kaznacheyev a démontré que presque n’importe quel genre de pattern de maladie et de mort cellulaire peut être transmis électromagnétiquement. Kaznacheyev a rapporté l’effet dans le proche ultraviolet, des expérimentateurs à l’Université de Marburg en Allemagne de l’Ouest ont répété ces expérimentations dans l’infrarouge.
Le résultat est que les photons eux-mêmes peuvent transporter des modèles de maladies et de mort entre les cellules. La technologie EM scalaire permettrait la synthèse du pattern potentiel réel (qui après tout représente le contrôle total de charge et la distribution de charge, et de là, de la biochimie dans la cellule) d’une maladie particulière ou d’un mécanisme mortel.

Auteur: Internet

Info: Selon plusieurs sources Internet. A vérifier. Donc à accueillir, comme disait le père de Solal dans le roman d’Albert Cohen, avec toutes les réserves et les réserves sur les réserves.

[ occultisme ] [ radiesthésie ]

 

Commentaires: 0

anti-actinifère

Des champignons qui absorbent les radiations se développent dans toute la centrale de Tchernobyl

Depuis longtemps, les scientifiques savent que certains types de champignons sont attirés par les radiations et peuvent en fait aider à les neutraliser et à les décomposer dans certains environnements. Le site radioactif de la centrale nucléaire abandonnée de Tchernobyl a servi de laboratoire réel à bien des égards au fil des ans, permettant aux chercheurs d'étudier l'impact physique des radiations sur la vie végétale et animale.

En 1991, alors qu'une équipe de chercheurs fouillait la zone de Tchernobyl, à distance avec des robots, ils ont remarqué des champignons à points noirs qui poussaient sur les parois de l'un des réacteurs nucléaires. Ils ont également observé que les champignons semblaient décomposer le graphite radioactif du cœur même du réacteur. Les champignons paraissaient également attirés par la source de rayonnement.

Une recherche ultérieure, menée en 2007 à l'Université de Saskatchewan, a révélé que différents types de champignons sont attirés par les radiations. Une équipe dirigée par le professeur Ekaterina Dadachova a observé que certains types de champignons se développent plus rapidement lorsqu'exposés aux rayonnements.

Les trois espèces testées sont Cladosporium sphaerospermum, Cryptococcus neoformans et Wangiella dermatitidis, qui ont toutes une croissance plus rapide lorsqu'exposées à des radiations. Les scientifiques pensent que, comme ces espèces possèdent de grandes quantités de mélanine pigmentaire, cela leur permet d'absorber des flux comme les radiations qu'ils convertissent en énergie chimique pour leur croissance.

Dans une autre étude, initiée en 2016 et pas encore publiée, huit espèces collectées dans la région de Tchernobyl ont été envoyées à la Station spatiale internationale (ISS). Les scientifiques attendent avec impatience les résultats de l'étude, étant donné que les échantillons sont exposés à des radiations entre 40 et 80 fois plus importantes que celles auxquelles ils seraient exposés ici sur Terre. Si cette étude est couronnée de succès, les experts espèrent que les connaissances acquises pourront être utilisées pour produire des médicaments qui pourraient protéger les astronautes des radiations lors de missions de longue durée. Il a également été suggéré que les résultats de cette étude pourraient conduire au développement de traitements contre le cancer à base de champignons.

Auteur: Internet

Info: https://truththeory.com/, 02/12/2020, écrit pas John Vibes

[ irradiations ] [ thérapie ]

 

Commentaires: 0

Ajouté à la BD par miguel

renforcement législatif

"Le projet personnalisé d’aide à l’emploi définit un métier, une zone géographique, et un niveau de salaire, précise Daniel. Jusqu’alors, le demandeur pouvait refuser un emploi pour lequel il était moins payé qu’auparavant. C’est terminé puisque maintenant, on tiendra compte des salaires pratiqués sur l’aire géographique où un emploi est recherché." Les conseillers tâcheront de continuer à ruser, en mettant par exemple un emploi inexistant dans l’aire de recherche du chômeur, ou en trichant un peu sur l’aire géographique de recherche" pour que les gens ne se retrouvent pas à travailler très loin de chez eux". Mais ils craignent qu’il soit de plus en plus difficile de résister. "On va avoir plus de pressions. Si un conseiller ne signale jamais aucun chômeur au service du contrôle, cela lui sera reproché lors de son entretien annuel, c’est évident", soupirent-ils.

"On craint de ne plus avoir notre mot à dire", reprend Emilie. Jusqu’à présent, en cas d’avertissement pour radiation, le demandeur d’emploi pouvait venir directement en agence, et discuter avec le directeur. Les conseillers pouvaient donner leur avis. "Le nouveau système va réduire ces possibilités d’intervention car les recours ne se feront plus en agence. Ils seront traités directement par le supérieur hiérarchique du directeur d’agence", regrette une conseillère. Tout sera fait par écrit. Il n’y aura plus cette possibilité d’être reçus. Un directeur territorial hésitera à contredire régulièrement un directeur d’agence zélé en matière de radiations. Autrement dit : une plus grande proportion de recours ne pourront aboutir.

"Le respect des droits des chômeurs dépend de plus en plus de leur ténacité, se désole une conseillère. J’ai souvenir d’une personne à qui Pôle emploi certifiait qu’elle avait eu un trop perçu. Elle a téléphoné, écrit, rencontré une médiatrice, a finalement été reçue par un responsable départemental qui a finalement reconnu qu’elle avait raison. Quelqu’un de moins tenace aurait baissé les bras, et remboursé la somme qui lui était pourtant due."

Un autre outil de contrôle devrait être expérimenté à partir du mois de juin. Il a fait bondir les conseillers : il s’agit d’un carnet de bord numérique, que les demandeurs d’emploi devront remplir chaque mois à l’occasion du renouvellement de leur inscription. Le maintien de l’inscription sur la liste des demandeurs d’emploi est subordonné à la mise à jour de ce carnet de bord. "Il faudra que les gens justifient de 35 heures de recherche active, s’indigne Daniel. Certains contrôleurs ne vont pas faire de cadeaux. Ça va vraiment être très violent. Tout ça pour faire baisser les chiffres du chômage."

Auteur: Weiler Nolwenn

Info: https://www.bastamag.net/Cela-va-vraiment-etre-tres-violent-des-agents-de-Pole-emploi-reagissent-aux?

[ flicage ] [ déshumanisation ] [ sans-emploi ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

panspermie

Origine de la vie: la pièce manquante détectée dans une "comète artificielle"
Pour la première fois, des chercheurs montrent que le ribose, un sucre à la base du matériel génétique des organismes vivants, a pu se former dans les glaces cométaires. Pour parvenir à ce résultat, des scientifiques de l'Institut de chimie de Nice (CNRS/Université Nice Sophia Antipolis) ont analysé très précisément une comète artificielle créée par leurs collègues de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud). Ils présentent ainsi, en collaboration avec d'autres équipes dont une du synchrotron SOLEIL, le premier scénario réaliste de formation de ce composé essentiel, encore jamais détecté dans des météorites ou dans des glaces cométaires. Étape importante dans la compréhension de l'émergence de la vie sur Terre, ces résultats sont publiés dans la revue Science le 8 avril 2016.
Le traitement ultraviolet des glaces pré-cométaires (à gauche) reproduit l'évolution naturelle des glaces interstellaires observées dans un nuage moléculaire (à droite, les piliers de la création), conduisant à la formation de molécules de sucre.Image de gauche © Louis Le Sergeant d'Hendecourt (CNRS).Image de droite © NASA, ESA, and the Hubble Heritage Team (STScI/AURA)
Tous les organismes vivants sur Terre, ainsi que les virus, ont un patrimoine génétique fait d'acides nucléiques - ADN ou ARN. L'ARN, considéré comme plus primitif, aurait été l'une des premières molécules caractéristiques de la vie à apparaitre sur Terre. Les scientifiques s'interrogent depuis longtemps sur l'origine de ces molécules biologiques. Selon certains, la Terre aurait été "ensemencée" par des comètes ou astéroïdes contenant les briques de base nécessaires à leur construction. Et effectivement, plusieurs acides aminés (constituants des protéines) et bases azotées (l'un des constituants des acides nucléiques) ont déjà été trouvés dans des météorites, ainsi que dans des comètes artificielles, reproduites en laboratoire. Mais le ribose, l'autre constituant-clé de l'ARN, n'avait encore jamais été détecté dans du matériel extraterrestre, ni produit en laboratoire dans des conditions "astrophysiques". En simulant l'évolution de la glace interstellaire composant les comètes, des équipes de recherche françaises ont réussi à former du ribose - étape importante pour comprendre l'origine de l'ARN et donc les origines de la vie.
Le ribose (et des molécules de sucres apparentées, comme l'arabinose, le lyxose et le xylose) ont été détectés dans des analogues de glaces pré-cométaires grâce à la chromatographie multidimensionnelle en phase gazeuse. Le ribose forme le "squelette" de l'acide ribonucléique (ARN), considéré comme le matériel génétique des premiers organismes vivants.© Cornelia Meinert (CNRS)
Dans un premier temps, une "comète artificielle" a été produite à l'Institut d'astrophysique spatiale: en plaçant dans une chambre à vide et à ? 200 °C un mélange représentatif d'eau (H2O), de méthanol (CH3OH) et d'ammoniac (NH3), les astrophysiciens ont simulé la formation de grains de poussières enrobés de glaces, la matière première des comètes. Ce matériau a été irradié par des UV - comme dans les nébuleuses où se forment ces grains. Puis, l'échantillon a été porté à température ambiante - comme lorsque les comètes s'approchent du Soleil. Sa composition a ensuite été analysée à l'Institut de chimie de Nice grâce à l'optimisation d'une technique très sensible et très précise (la chromatographie multidimensionnelle en phase gazeuse, couplée à la spectrométrie de masse à temps de vol). Plusieurs sucres ont été détectés, parmi lesquels le ribose. Leur diversité et leurs abondances relatives suggèrent qu'ils ont été formés à partir de formaldéhyde (une molécule présente dans l'espace et sur les comètes, qui se forme en grande quantité à partir de méthanol et d'eau).
Le ribose se forme dans le manteau de glace des grains de poussière, à partir de molécules précurseurs simples (eau, méthanol et ammoniac) et sous l'effet de radiations intenses.© Cornelia Meinert (CNRS) & Andy Christie (Slimfilms.com)
S'il reste à confirmer l'existence de ribose dans les comètes réelles, cette découverte complète la liste des "briques moléculaires" de la vie qui peuvent être formées dans la glace interstellaire. Elle apporte un argument supplémentaire à la théorie des comètes comme source de molécules organiques qui ont rendu la vie possible sur Terre... et peut-être ailleurs dans l'Univers.
Ces travaux ont bénéficié du soutien financier de l'Agence nationale de la recherche et du CNES.

Auteur: Internet

Info: http://www.techno-science.net, 9 04 2016

[ extraterrestre ]

 

Commentaires: 0

biologie

Des scientifiques découvrent pourquoi le tardigrade est devenu l’un des animaux les plus résistants capables de survivre au vide de l’espace

Un petit animal extrêmement résistant (Crédit photo : Dotted Yeti/Shutterstock)


Le tardigrade ou ourson d’eau est une véritable force de la nature ! Cette créature dotée de huit pattes est l’un des animaux les plus fascinants qui soient. Plus de 1300 espèces ont été référencées mesurant entre 0,1 millimètre pour les plus petites et 1,2 millimètre pour les plus grandes. L’ourson d’eau possède des yeux, des muscles, un système nerveux rudimentaire et un système digestif. Il existe sur notre planète depuis près d’un demi-milliard d’années passant au travers des cinq grandes extinctions majeures.

Cet animal aux superpouvoirs peuple tous les écosystèmes et tous les milieux. On le retrouve aussi bien au sommet des plus hautes montagnes à plus de 6000 mètres d’altitude que dans les fonds océaniques à près de 5000 mètres de profondeur. Il est capable de survivre au moins une heure dans l’eau bouillante et de supporter des doses de radiations qui tueraient n’importe quel autre être vivant.

En période de sècheresse, l’animal possède la capacité de perdre 95 % de son eau et 40 % de son volume initial. Sous cette forme déshydratée appelée cryptobiose, durant laquelle il semble sans vie, il est capable de patienter des années en attendant que les conditions redeviennent idéales pour lui.

Les chercheurs essayent depuis longtemps de comprendre comment le tardigrade a pu évoluer de cette manière et devenir aussi résistant. Dans une nouvelle étude qui vient de paraitre, des scientifiques pensent avoir découvert comment ces animaux miniatures sont devenus les rois de l’adaptation à pratiquement tous les milieux.

Les tardigrades proviennent de vers marins vivant au Cambrien

(photo d'un lobopodien, l’un des ancêtres des tardigrades actuels / Source : Jose manuel canete-travail personnel/CC BY-SA 4.0)

Les chercheurs savent que les tardigrades descendent d’organismes aujourd’hui éteints qui vivaient sur Terre durant le Cambrien, la première des six périodes géologiques du paléozoïque qui s’étendait approximativement de 541 millions d’années à 485,4 millions d’années. Ces organismes nommés lobopodiens formaient un groupe informel de vers marins possédant plusieurs paires de pattes très courtes. Beaucoup de ces animaux ne dépassaient pas quelques centimètres de long bien que certains fossiles découverts laissent apparaitre des animaux pouvant atteindre 20 centimètres et plus. 

Jusqu’à présent, les scientifiques n’étaient jamais parvenus à déterminer exactement de quel groupe de lobopodiens, les tardigrades qui vivent sur Terre aujourd’hui pouvaient descendre. C’est chose faite avec cette découverte publiée dans PNAS réalisée entre autres par des scientifiques de l’Institut coréen de recherche polaire en Corée du Sud et de l’université de Floride du Nord aux États-Unis.

En analysant des fossiles de lobopodiens et une quarantaine d’espèces actuelles de tardigrades, les chercheurs ont découvert que les ancêtres des oursons d’eau vivant aujourd’hui sur Terre sont un groupe de lobopodiens du cambrien appelé luolishaniidés. D’après les recherches, ce groupe a évolué sur des centaines de millions d’années pour donner naissance à des animaux au corps beaucoup moins segmenté, aux pattes beaucoup plus courtes et surtout beaucoup plus petites.

Cette étude vient combler un vide dans la connaissance de l’évolution de ces étonnants animaux et pourrait sembler faire partie de la recherche fondamentale. Pourtant, cette découverte pourrait bien permettre la mise au point de futures applications pratiques.

Des protéines de tardigrades pour protéger les vaccins de la dégradation

Les tardigrades sont véritablement des animaux exceptionnels, fruits d’une très longue évolution qui s’est déroulée sur des centaines de millions d’années. Au cours de cette longue adaptation évolutive, ils ont appris à survivre en mettant leur métabolisme "en pause" lorsque les conditions de vie devenaient inhospitalières puis à sortir de cet état de "veille" quand les conditions devenaient à nouveau plus sures. Les tardigrades ont également appris, au fil du temps, à synthétiser des protéines qui ne se dégradent pas dans des conditions de vie dans lesquelles d’autres protéines seraient détruites. Les chercheurs espèrent parvenir à déterminer le moment dans l’histoire de l’évolution de cette espèce où cette caractéristique a été acquise de manière à identifier le ou les gènes responsables.

Lorsque ces gènes seront découverts et grâce aux technologies d’éditions de gènes comme CRISPR, les chercheurs espèrent parvenir à reproduire ces caractéristiques étonnantes chez d’autres espèces animales et pourquoi pas chez l’être humain. CRISPR est une technologie assez récente permettant d’utiliser une nucléase appelée Cas9 et un ARN guide afin de modifier un gène cible dans des cellules végétales et animales ou encore de diminuer ou d’augmenter l’expression d’un gène. 

L’utilisation des protéines de tardigrades pourrait servir à protéger les vaccins de la dégradation. D’autres projets, pouvant cependant soulever quelques interrogations éthiques, prévoient d’insérer des gènes de tardigrades dans des embryons humains dans le but d’apporter aux cellules souches embryonnaires une plus grande résistance aux radiations nucléaires.  

Auteur: Internet

Info: Science et vie, 12 juillet 2023, Ives Etienne. Article original de Ji-Hoon Kihm, Frank W. Smith, Sanghee Kim, Tae-Yoon S. Park, "Cambrian lobopodians shed light on the origin of the tardigrade body plan", PNAS, July 3, 2023, https://doi.org/10.1073/pnas.2211251120

[ résilience ]

 

Commentaires: 0

Ajouté à la BD par miguel

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

interrogation

Pourquoi cet univers ? Un nouveau calcul suggère que notre cosmos est typique.

Deux physiciens ont calculé que l’univers a une entropie plus élevée – et donc plus probable – que d’autres univers possibles. Le calcul est " une réponse à une question qui n’a pas encore été pleinement comprise ".

(image : Les propriétés de notre univers – lisse, plat, juste une pincée d’énergie noire – sont ce à quoi nous devrions nous attendre, selon un nouveau calcul.)

Les cosmologues ont passé des décennies à chercher à comprendre pourquoi notre univers est si étonnamment vanille. Non seulement il est lisse et plat à perte de vue, mais il s'étend également à un rythme toujours plus lent, alors que des calculs naïfs suggèrent que – à la sortie du Big Bang – l'espace aurait dû se froisser sous l'effet de la gravité et détruit par une énergie noire répulsive.

Pour expliquer la planéité du cosmos, les physiciens ont ajouté un premier chapitre dramatique à l'histoire cosmique : ils proposent que l'espace se soit rapidement gonflé comme un ballon au début du Big Bang, aplanissant toute courbure. Et pour expliquer la légère croissance de l’espace après cette première période d’inflation, certains ont avancé que notre univers n’est qu’un parmi tant d’autres univers moins hospitaliers dans un multivers géant.

Mais maintenant, deux physiciens ont bouleversé la pensée conventionnelle sur notre univers vanille. Suivant une ligne de recherche lancée par Stephen Hawking et Gary Gibbons en 1977, le duo a publié un nouveau calcul suggérant que la clarté du cosmos est attendue plutôt que rare. Notre univers est tel qu'il est, selon Neil Turok de l'Université d'Édimbourg et Latham Boyle de l'Institut Perimeter de physique théorique de Waterloo, au Canada, pour la même raison que l'air se propage uniformément dans une pièce : des options plus étranges sont concevables, mais extrêmement improbable.

L'univers " peut sembler extrêmement précis, extrêmement improbable, mais eux  disent : 'Attendez une minute, c'est l'univers préféré' ", a déclaré Thomas Hertog , cosmologue à l'Université catholique de Louvain en Belgique.

"Il s'agit d'une contribution nouvelle qui utilise des méthodes différentes de celles utilisées par la plupart des gens", a déclaré Steffen Gielen , cosmologue à l'Université de Sheffield au Royaume-Uni.

La conclusion provocatrice repose sur une astuce mathématique consistant à passer à une horloge qui tourne avec des nombres imaginaires. En utilisant l'horloge imaginaire, comme Hawking l'a fait dans les années 70, Turok et Boyle ont pu calculer une quantité, connue sous le nom d'entropie, qui semble correspondre à notre univers. Mais l’astuce du temps imaginaire est une manière détournée de calculer l’entropie, et sans une méthode plus rigoureuse, la signification de la quantité reste vivement débattue. Alors que les physiciens s’interrogent sur l’interprétation correcte du calcul de l’entropie, beaucoup le considèrent comme un nouveau guide sur la voie de la nature quantique fondamentale de l’espace et du temps.

"D'une manière ou d'une autre", a déclaré Gielen, "cela nous donne peut-être une fenêtre sur la microstructure de l'espace-temps."

Chemins imaginaires

Turok et Boyle, collaborateurs fréquents, sont réputés pour avoir conçu des idées créatives et peu orthodoxes sur la cosmologie. L’année dernière, pour étudier la probabilité que notre Univers soit probable, ils se sont tournés vers une technique développée dans les années 1940 par le physicien Richard Feynman.

Dans le but de capturer le comportement probabiliste des particules, Feynman a imaginé qu'une particule explore toutes les routes possibles reliant le début à la fin : une ligne droite, une courbe, une boucle, à l'infini. Il a imaginé un moyen d'attribuer à chaque chemin un nombre lié à sa probabilité et d'additionner tous les nombres. Cette technique de " l’intégrale du chemin " est devenue un cadre puissant pour prédire le comportement probable d’un système quantique.

Dès que Feynman a commencé à faire connaître l’intégrale du chemin, les physiciens ont repéré un curieux lien avec la thermodynamique, la vénérable science de la température et de l’énergie. C'est ce pont entre la théorie quantique et la thermodynamique qui a permis les calculs de Turok et Boyle.

La thermodynamique exploite la puissance des statistiques afin que vous puissiez utiliser seulement quelques chiffres pour décrire un système composé de plusieurs éléments, comme les milliards de molécules d'air qui s'agitent dans une pièce. La température, par exemple – essentiellement la vitesse moyenne des molécules d’air – donne une idée approximative de l’énergie de la pièce. Les propriétés globales telles que la température et la pression décrivent un "  macrostate " de la pièce.

Mais ce terme de un macro-état est un compte rendu rudimentaire ; les molécules d’air peuvent être disposées d’un très grand nombre de manières qui correspondent toutes au même macroétat. Déplacez un peu un atome d’oxygène vers la gauche et la température ne bougera pas. Chaque configuration microscopique unique est appelée microétat, et le nombre de microétats correspondant à un macroétat donné détermine son entropie.

L'entropie donne aux physiciens un moyen précis de comparer les probabilités de différents résultats : plus l'entropie d'un macroétat est élevée, plus il est probable. Il existe bien plus de façons pour les molécules d'air de s'organiser dans toute la pièce que si elles étaient regroupées dans un coin, par exemple. En conséquence, on s’attend à ce que les molécules d’air se propagent (et restent dispersées). La vérité évidente selon laquelle les résultats probables sont probables, exprimée dans le langage de la physique, devient la célèbre deuxième loi de la thermodynamique : selon laquelle l’entropie totale d’un système a tendance à croître.

La ressemblance avec l'intégrale du chemin était indubitable : en thermodynamique, on additionne toutes les configurations possibles d'un système. Et avec l’intégrale du chemin, vous additionnez tous les chemins possibles qu’un système peut emprunter. Il y a juste une distinction assez flagrante : la thermodynamique traite des probabilités, qui sont des nombres positifs qui s'additionnent simplement. Mais dans l'intégrale du chemin, le nombre attribué à chaque chemin est complexe, ce qui signifie qu'il implique le nombre imaginaire i , la racine carrée de −1. Les nombres complexes peuvent croître ou diminuer lorsqu’ils sont additionnés, ce qui leur permet de capturer la nature ondulatoire des particules quantiques, qui peuvent se combiner ou s’annuler.

Pourtant, les physiciens ont découvert qu’une simple transformation peut vous faire passer d’un domaine à un autre. Rendez le temps imaginaire (un mouvement connu sous le nom de rotation de Wick d'après le physicien italien Gian Carlo Wick), et un second i entre dans l'intégrale du chemin qui étouffe le premier, transformant les nombres imaginaires en probabilités réelles. Remplacez la variable temps par l'inverse de la température et vous obtenez une équation thermodynamique bien connue.

Cette astuce de Wick a conduit Hawking et Gibbons à une découverte à succès en 1977, à la fin d'une série éclair de découvertes théoriques sur l'espace et le temps.

L'entropie de l'espace-temps

Des décennies plus tôt, la théorie de la relativité générale d’Einstein avait révélé que l’espace et le temps formaient ensemble un tissu unifié de réalité – l’espace-temps – et que la force de gravité était en réalité la tendance des objets à suivre les plis de l’espace-temps. Dans des circonstances extrêmes, l’espace-temps peut se courber suffisamment fortement pour créer un Alcatraz incontournable connu sous le nom de trou noir.

En 1973, Jacob Bekenstein a avancé l’hérésie selon laquelle les trous noirs seraient des prisons cosmiques imparfaites. Il a estimé que les abysses devraient absorber l'entropie de leurs repas, plutôt que de supprimer cette entropie de l'univers et de violer la deuxième loi de la thermodynamique. Mais si les trous noirs ont de l’entropie, ils doivent aussi avoir des températures et rayonner de la chaleur.

Stephen Hawking, sceptique, a tenté de prouver que Bekenstein avait tort, en se lançant dans un calcul complexe du comportement des particules quantiques dans l'espace-temps incurvé d'un trou noir. À sa grande surprise, il découvrit en 1974 que les trous noirs rayonnaient effectivement. Un autre calcul a confirmé l'hypothèse de Bekenstein : un trou noir a une entropie égale au quart de la surface de son horizon des événements – le point de non-retour pour un objet tombant.

Dans les années qui suivirent, les physiciens britanniques Gibbons et Malcolm Perry, puis plus tard Gibbons et Hawking, arrivèrent au même résultat dans une autre direction . Ils ont établi une intégrale de chemin, additionnant en principe toutes les différentes manières dont l'espace-temps pourrait se plier pour former un trou noir. Ensuite, ils ont fait tourner le trou noir, marquant l'écoulement du temps avec des nombres imaginaires, et ont scruté sa forme. Ils ont découvert que, dans la direction du temps imaginaire, le trou noir revenait périodiquement à son état initial. Cette répétition semblable au jour de la marmotte dans un temps imaginaire a donné au trou noir une sorte de stase qui leur a permis de calculer sa température et son entropie.

Ils n’auraient peut-être pas fait confiance aux résultats si les réponses n’avaient pas correspondu exactement à celles calculées précédemment par Bekenstein et Hawking. À la fin de la décennie, leur travail collectif avait donné naissance à une idée surprenante : l’entropie des trous noirs impliquait que l’espace-temps lui-même était constitué de minuscules morceaux réorganisables, tout comme l’air est constitué de molécules. Et miraculeusement, même sans savoir ce qu’étaient ces " atomes gravitationnels ", les physiciens ont pu compter leurs arrangements en regardant un trou noir dans un temps imaginaire.

"C'est ce résultat qui a laissé une très profonde impression sur Hawking", a déclaré Hertog, ancien étudiant diplômé et collaborateur de longue date de Hawking. Hawking s'est immédiatement demandé si la rotation de Wick fonctionnerait pour autre chose que les trous noirs. "Si cette géométrie capture une propriété quantique d'un trou noir", a déclaré Hertog, "alors il est irrésistible de faire la même chose avec les propriétés cosmologiques de l'univers entier."

Compter tous les univers possibles

Immédiatement, Hawking et Gibbons Wick ont ​​fait tourner l’un des univers les plus simples imaginables – un univers ne contenant rien d’autre que l’énergie sombre construite dans l’espace lui-même. Cet univers vide et en expansion, appelé espace-temps " de Sitter ", a un horizon au-delà duquel l’espace s’étend si rapidement qu’aucun signal provenant de cet espace ne parviendra jamais à un observateur situé au centre de l’espace. En 1977, Gibbons et Hawking ont calculé que, comme un trou noir, un univers de De Sitter possède également une entropie égale au quart de la surface de son horizon. Encore une fois, l’espace-temps semblait comporter un nombre incalculable de micro-états.

Mais l’entropie de l’univers réel restait une question ouverte. Notre univers n'est pas vide ; il regorge de lumière rayonnante et de flux de galaxies et de matière noire. La lumière a provoqué une expansion rapide de l'espace pendant la jeunesse de l'univers, puis l'attraction gravitationnelle de la matière a ralenti les choses pendant l'adolescence cosmique. Aujourd’hui, l’énergie sombre semble avoir pris le dessus, entraînant une expansion galopante. "Cette histoire d'expansion est une aventure semée d'embûches", a déclaré Hertog. "Il n'est pas si facile d'obtenir une solution explicite."

Au cours de la dernière année, Boyle et Turok ont ​​élaboré une solution aussi explicite. Tout d'abord, en janvier, alors qu'ils jouaient avec des cosmologies jouets, ils ont remarqué que l'ajout de radiations à l'espace-temps de De Sitter ne gâchait pas la simplicité requise pour faire tourner l'univers par Wick.

Puis, au cours de l’été, ils ont découvert que la technique résisterait même à l’inclusion désordonnée de matière. La courbe mathématique décrivant l’histoire plus complexe de l’expansion relevait toujours d’un groupe particulier de fonctions faciles à manipuler, et le monde de la thermodynamique restait accessible. "Cette rotation de Wick est une affaire trouble lorsque l'on s'éloigne d'un espace-temps très symétrique", a déclaré Guilherme Leite Pimentel , cosmologiste à la Scuola Normale Superiore de Pise, en Italie. "Mais ils ont réussi à le trouver."

En faisant tourner Wick l’histoire de l’expansion en montagnes russes d’une classe d’univers plus réaliste, ils ont obtenu une équation plus polyvalente pour l’entropie cosmique. Pour une large gamme de macroétats cosmiques définis par le rayonnement, la matière, la courbure et une densité d'énergie sombre (tout comme une plage de températures et de pressions définit différents environnements possibles d'une pièce), la formule crache le nombre de microétats correspondants. Turok et Boyle ont publié leurs résultats en ligne début octobre.

Les experts ont salué le résultat explicite et quantitatif. Mais à partir de leur équation d’entropie, Boyle et Turok ont ​​tiré une conclusion non conventionnelle sur la nature de notre univers. "C'est là que cela devient un peu plus intéressant et un peu plus controversé", a déclaré Hertog.

Boyle et Turok pensent que l'équation effectue un recensement de toutes les histoires cosmiques imaginables. Tout comme l'entropie d'une pièce compte toutes les façons d'arranger les molécules d'air pour une température donnée, ils soupçonnent que leur entropie compte toutes les façons dont on peut mélanger les atomes de l'espace-temps et se retrouver avec un univers avec une histoire globale donnée. courbure et densité d’énergie sombre.

Boyle compare le processus à l'examen d'un gigantesque sac de billes, chacune représentant un univers différent. Ceux qui ont une courbure négative pourraient être verts. Ceux qui ont des tonnes d'énergie sombre pourraient être des yeux de chat, et ainsi de suite. Leur recensement révèle que l’écrasante majorité des billes n’ont qu’une seule couleur – le bleu, par exemple – correspondant à un type d’univers : un univers globalement semblable au nôtre, sans courbure appréciable et juste une touche d’énergie sombre. Les types de cosmos les plus étranges sont extrêmement rares. En d’autres termes, les caractéristiques étrangement vanille de notre univers qui ont motivé des décennies de théorie sur l’inflation cosmique et le multivers ne sont peut-être pas étranges du tout.

"C'est un résultat très intrigant", a déclaré Hertog. Mais " cela soulève plus de questions que de réponses ".

Compter la confusion

Boyle et Turok ont ​​calculé une équation qui compte les univers. Et ils ont fait l’observation frappante que des univers comme le nôtre semblent représenter la part du lion des options cosmiques imaginables. Mais c’est là que s’arrête la certitude.

Le duo ne tente pas d’expliquer quelle théorie quantique de la gravité et de la cosmologie pourrait rendre certains univers communs ou rares. Ils n’expliquent pas non plus comment notre univers, avec sa configuration particulière de parties microscopiques, est né. En fin de compte, ils considèrent leurs calculs comme un indice permettant de déterminer quels types d’univers sont préférés plutôt que comme quelque chose qui se rapproche d’une théorie complète de la cosmologie. "Ce que nous avons utilisé est une astuce bon marché pour obtenir la réponse sans connaître la théorie", a déclaré Turok.

Leurs travaux revitalisent également une question restée sans réponse depuis que Gibbons et Hawking ont lancé pour la première fois toute l’histoire de l’entropie spatio-temporelle : quels sont exactement les micro-états que compte l’astuce bon marché ?

"L'essentiel ici est de dire que nous ne savons pas ce que signifie cette entropie", a déclaré Henry Maxfield , physicien à l'Université de Stanford qui étudie les théories quantiques de la gravité.

En son cœur, l’entropie résume l’ignorance. Pour un gaz constitué de molécules, par exemple, les physiciens connaissent la température – la vitesse moyenne des particules – mais pas ce que fait chaque particule ; l'entropie du gaz reflète le nombre d'options.

Après des décennies de travaux théoriques, les physiciens convergent vers une vision similaire pour les trous noirs. De nombreux théoriciens pensent aujourd'hui que la zone de l'horizon décrit leur ignorance de ce qui s'y trouve, de toutes les façons dont les éléments constitutifs du trou noir sont disposés de manière interne pour correspondre à son apparence extérieure. (Les chercheurs ne savent toujours pas ce que sont réellement les microétats ; les idées incluent des configurations de particules appelées gravitons ou cordes de la théorie des cordes.)

Mais lorsqu’il s’agit de l’entropie de l’univers, les physiciens se sentent moins sûrs de savoir où se situe leur ignorance.

En avril, deux théoriciens ont tenté de donner à l’entropie cosmologique une base mathématique plus solide. Ted Jacobson , physicien à l'Université du Maryland réputé pour avoir dérivé la théorie de la gravité d'Einstein de la thermodynamique des trous noirs, et son étudiant diplômé Batoul Banihashemi ont explicitement défini l'entropie d'un univers de Sitter (vacant et en expansion). Ils ont adopté la perspective d’un observateur au centre. Leur technique, qui consistait à ajouter une surface fictive entre l'observateur central et l'horizon, puis à rétrécir la surface jusqu'à ce qu'elle atteigne l'observateur central et disparaisse, a récupéré la réponse de Gibbons et Hawking selon laquelle l'entropie est égale à un quart de la surface de l'horizon. Ils ont conclu que l’entropie de De Sitter compte tous les microétats possibles à l’intérieur de l’horizon.

Turok et Boyle calculent la même entropie que Jacobson et Banihashemi pour un univers vide. Mais dans leur nouveau calcul relatif à un univers réaliste rempli de matière et de rayonnement, ils obtiennent un nombre beaucoup plus grand de microétats – proportionnels au volume et non à la surface. Face à ce conflit apparent, ils spéculent que les différentes entropies répondent à des questions différentes : la plus petite entropie de De Sitter compte les microétats d'un espace-temps pur délimité par un horizon, tandis qu'ils soupçonnent que leur plus grande entropie compte tous les microétats d'un espace-temps rempli d'espace-temps. matière et énergie, tant à l’intérieur qu’à l’extérieur de l’horizon. "C'est tout un shebang", a déclaré Turok.

En fin de compte, régler la question de savoir ce que comptent Boyle et Turok nécessitera une définition mathématique plus explicite de l’ensemble des microétats, analogue à ce que Jacobson et Banihashemi ont fait pour l’espace de Sitter. Banihashemi a déclaré qu'elle considérait le calcul d'entropie de Boyle et Turok " comme une réponse à une question qui n'a pas encore été entièrement comprise ".

Quant aux réponses plus établies à la question " Pourquoi cet univers ? ", les cosmologistes affirment que l’inflation et le multivers sont loin d’être morts. La théorie moderne de l’inflation, en particulier, est parvenue à résoudre bien plus que la simple question de la douceur et de la planéité de l’univers. Les observations du ciel correspondent à bon nombre de ses autres prédictions. L'argument entropique de Turok et Boyle a passé avec succès un premier test notable, a déclaré Pimentel, mais il lui faudra trouver d'autres données plus détaillées pour rivaliser plus sérieusement avec l'inflation.

Comme il sied à une grandeur qui mesure l’ignorance, les mystères enracinés dans l’entropie ont déjà servi de précurseurs à une physique inconnue. À la fin des années 1800, une compréhension précise de l’entropie en termes d’arrangements microscopiques a permis de confirmer l’existence des atomes. Aujourd'hui, l'espoir est que si les chercheurs calculant l'entropie cosmologique de différentes manières peuvent déterminer exactement à quelles questions ils répondent, ces chiffres les guideront vers une compréhension similaire de la façon dont les briques Lego du temps et de l'espace s'empilent pour créer l'univers qui nous entoure.

"Notre calcul fournit une énorme motivation supplémentaire aux personnes qui tentent de construire des théories microscopiques de la gravité quantique", a déclaré Turok. "Parce que la perspective est que cette théorie finira par expliquer la géométrie à grande échelle de l'univers."

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 17 nov 2022

[ constante fondamentale ] [ 1/137 ]

 

Commentaires: 0

Ajouté à la BD par miguel