Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 97
Temps de recherche: 0.0797s

procréation médicalement assistée

La PMA est promise à devenir l’une de ces techniques qu’on utilise par défaut, à avoir la destinée de l’automobile : plus les gens l’utilisent, plus elle est rentable pour ceux qui la promeuvent et la produisent (eu égard aux infrastructures et institutions nécessaires à son fonctionnement), mais moins elle est utile, c’est-à-dire efficace pour satisfaire les besoins (la voiture allonge les distances, ralentit les déplacements par rapport au temps investi dans son coût et réduit les possibilités de déplacement aux trajets prévus par l’infrastructure, tout en rendant impossibles ou problématiques les autres modes de déplacements). Une telle technique devient aussi de plus en plus indispensable : on ne peut pas s’en passer parce qu’il n’y a plus d’alternatives instituées.

Dans le film Gattaca (1997), des parents décident de faire un enfant de manière "naturelle", c’est-à-dire sans PMA et sans modification des gènes de l’embryon par thérapie génique ; l’enfant né de cette union est parfaitement normal, cependant que dans la société où il naît, l’immense majorité des gens choisissent de modifier leur enfant pour qu’il soit conforme aux critères socialement en vigueur, autrement dit qu’il soit génétiquement compétitif (d’autant qu’il est un investissement).
L’enfant "naturel" se retrouve rejeté des institutions comme anormal, fut-ce parce qu’il ne peut plus être assuré et parce que sa santé présente un risque statistiquement indéfendable pour un employeur. Même les enfants modifiés se retrouvent hiérarchisés en fonction des modifications apportées, des investissements consentis (donc des revenus) des parents, et, finalement, ces mêmes enfants n’ont pas plus de chance qu’auparavant de s’en tirer mieux, puisque leur avantage génétique est comparatif, donc relatif aux normes et modes en vigueur – la technique est dès lors devenue aussi indispensable (c’est-à-dire, au fond, obligatoire) qu’inutile. Ce film met admirablement en scène le processus en jeu dans ces techniques génétiques et le résultat que les choix individuels peuvent avoir sur le fonctionnement global, structurel d’une société.

Le scénario est le suivant : plus les gens vont (pouvoir) utiliser la PMA, moins elle va être chère et plus elle sera techniquement confortable (son principal défaut actuel étant d’être une procédure très lourde et encore fort souvent inefficace), ce qui entraînera plus de gens à l’utiliser et donc plus d’offres de services dans une véritable gamme de produits dérivés, souvent bien plus intéressantes que le produit de base, et déjà très avancées techniquement, telles que le dépistage pré-préimplantatoire et les thérapies géniques germinales (impossibles in utero), ou encore la possibilité, encore à l’étude, du développement de l’embryon hors de l’utérus.

En amont – et sans parler de ce qui concerne la loi, les mentalités, les représentations sociales et la demande –, son infrastructure nécessite des laboratoire, des techniciens et des institutions hospitalières spécialisées, répondant pour partie à des besoins-prétextes bien réels (la pollution chimique amenant de plus en plus de cas de stérilité ou de déficiences spermatiques), ainsi que du sperme (bientôt peut-être des ovules, puisque l’on est en passe d’utiliser un seul ovule pour créer plusieurs gamètes) et tout le travail de classification et de rentabilité autour de sa récolte et de sa distribution.

En aval, ce dispositif conduira à l’utilisation de larges produits dérivés (thérapies géniques, DPI, voire utérus artificiel, etc.), à des techniques de conservation des spermatozoïdes ou des gamètes, ou encore à l’utilisation des embryons surnuméraires à des fins de recherches (qui concernent souvent les techniques dérivées) ou pour la production de cellules souches. Or, à des degrés divers, tout cela est en ordre de bataille : notamment, en aval, le DPI et, désormais, les thérapies géniques (grâce au développement récent de l’outil "crispr cas 9") sont parfaitement au point, même s’il reste des limites (énormes) dans la connaissance des interactions entre gènes, de leur activation ; et la recherche sur les utérus artificiels – qui a notamment pour prétexte le sauvetage des grands prématurés – avance à grands pas.

La consommation de la PMA est le nœud du processus : son augmentation rendra l’infrastructure en amont rentable et plus efficace, et nourrira les produits dérivés, les rendant, là encore, plus rentables et plus efficaces. De plus, concourant avec la panique hygiéniste à laquelle se réduit actuellement la question environnementale, on fait du désir d’enfant un droit à assouvir (comme, par exemple, on en a fait un de l’accès à l’Internet) et un enjeu d’égalité ou de non-discrimination : on légitime, on adoube la technologie, pendant que tout le reste de la structure technique (la pollution qui rend stérile) et économique (les exigences de production et de consommation qui tendent à faire de la naissance de l’enfant un obstacle imprévisible et difficile à gérer s’il n’est pas planifié) la rendent "utile".

Auteur: Dufoing Frédéric

Info: https://linactuelle.fr/index.php/2020/01/22/pma-veritables-enjeux-frederic-dufoing/

[ enjeux sociétaux ] [ marchandisation du vivant ] [ big pharma ] [ fuite en avant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Comment les physiciens explorent et repensent le temps

Le temps est inextricablement lié à ce qui pourrait être l’objectif le plus fondamental de la physique : la prédiction. Qu'ils étudient des boulets de canon, des électrons ou l'univers entier, les physiciens visent à recueillir des informations sur le passé ou le présent et à les projeter vers l'avant pour avoir un aperçu de l'avenir. Le temps est, comme l’a dit Frank Wilczek, lauréat du prix Nobel, dans un récent épisode du podcast The Joy of Why de Quanta, " la variable maîtresse sous laquelle le monde se déroule ".  Outre la prédiction, les physiciens sont confrontés au défi de comprendre le temps comme un phénomène physique à part entière. Ils développent des explications de plus en plus précises sur la caractéristique la plus évidente du temps dans notre vie quotidienne : son écoulement inexorable. Et des expériences récentes montrent des façons plus exotiques dont le temps peut se comporter selon les lois de la mécanique quantique et de la relativité générale. Alors que les chercheurs approfondissent leur compréhension du temps dans ces deux théories chères, ils se heurtent à des énigmes qui semblent surgir de niveaux de réalité plus obscurs et plus fondamentaux. Einstein a dit en plaisantant que le temps est ce que mesurent les horloges. C'est une réponse rapide. Mais alors que les physiciens manipulent des horloges de plus en plus sophistiquées, on leur rappelle fréquemment que mesurer quelque chose est très différent de le comprendre. 

Quoi de neuf et remarquable

Une réalisation majeure a été de comprendre pourquoi le temps ne s'écoule qu'en avant, alors que la plupart des faits physiques les plus simples peuvent être faits et défaits avec la même facilité.  La réponse générale semble provenir des statistiques des systèmes complexes et de la tendance de ces systèmes à passer de configurations rares et ordonnées à des configurations désordonnées plus courantes, qui ont une entropie plus élevée. Les physiciens ont ainsi défini une " flèche du temps " classique dans les années 1800, et dans les temps modernes, les physiciens ont remanié cette flèche probabiliste en termes d’intrication quantique croissante. En 2021, ma collègue Natalie Wolchover a fait état d’une nouvelle description des horloges comme de machine qui ont besoin du désordre pour fonctionner sans problème, resserrant ainsi le lien entre emps et entropie. 

Simultanément, les expérimentateurs se sont fait un plaisir d'exposer les bizarres courbures et crépitements du temps que nous ne connaissons pas, mais qui sont autorisés par les lois contre-intuitives de la relativité générale et de la mécanique quantique. En ce qui concerne la relativité, Katie McCormick a décrit en 2021 une expérience mesurant la façon dont le champ gravitationnel de la Terre ralentit le tic-tac du temps sur des distances aussi courtes qu'un millimètre. En ce qui concerne la mécanique quantique, j'ai rapporté l'année dernière comment des physiciens ont réussi à faire en sorte que des particules de lumière fassent l'expérience d'un écoulement simultané du temps vers l'avant et vers l'arrière.

C'est lorsque les physiciens sont confrontés à la formidable tâche de fusionner la théorie quantique avec la relativité générale que tout ça devient confus ; chaque théorie a sa propre conception du temps, mais les deux notions n’ont presque rien en commun.

En mécanique quantique, le temps fonctionne plus ou moins comme on peut s'y attendre : vous commencez par un état initial et utilisez une équation pour le faire avancer de manière rigide jusqu'à un état ultérieur. Des manigances quantiques peuvent se produire en raison des façons particulières dont les états quantiques peuvent se combiner, mais le concept familier du changement se produisant avec le tic-tac d’une horloge maîtresse reste intact.

En relativité générale, cependant, une telle horloge maîtresse n’existe pas. Einstein a cousu le temps dans un tissu espace-temps qui se plie et ondule, ralentissant certaines horloges et en accélérant d’autres. Dans ce tableau géométrique, le temps devient une dimension au même titre que les trois dimensions de l'espace, bien qu'il s'agisse d'une dimension bizarroïde qui ne permet de voyager que dans une seule direction.

Et dans ce contexte, les physiciens dépouillent souvent le temps de sa nature à sens unique. Bon nombre des découvertes fondamentales de Hawking sur les trous noirs – cicatrices dans le tissu spatio-temporel créées par l’effondrement violent d’étoiles géantes – sont nées de la mesure du temps avec une horloge qui marquait des nombres imaginaires, un traitement mathématique qui simplifie certaines équations gravitationnelles et considère le temps comme apparié à l'espace. Ses conclusions sont désormais considérées comme incontournables, malgré la nature non physique de l’astuce mathématique qu’il a utilisée pour y parvenir.

Plus récemment, des physiciens ont utilisé cette même astuce du temps imaginaire pour affirmer que notre univers est l'univers le plus typique, comme je l'ai rapporté en 2022. Ils se demandent encore pourquoi l'astuce semble fonctionner et ce que signifie son utilité. "Il se peut qu'il y ait ici quelque chose de profond que nous n'avons pas tout à fait compris", a écrit le célèbre physicien Anthony Zee à propos du jeu imaginaire du temps dans son manuel de théorie quantique des champs.

Mais qu’en est-il du temps réel et à sens unique dans notre univers ? Comment les physiciens peuvent-ils concilier les deux images du temps alors qu’ils se dirigent sur la pointe des pieds vers une théorie de la gravité quantique qui unit la théorie quantique à la relativité générale ? C’est l’un des problèmes les plus difficiles de la physique moderne. Même si personne ne connaît la réponse, les propositions intrigantes abondent.

Une suggestion, comme je l’ai signalé en 2022, est d’assouplir le fonctionnement restrictif du temps en mécanique quantique en permettant à l’univers de générer apparemment une variété d’avenirs à mesure qu’il grandit – une solution désagréable pour de nombreux physiciens. Natalie Wolchover a écrit sur la suspicion croissante selon laquelle le passage du temps résulte de l'enchevêtrement de particules quantiques, tout comme la température émerge de la bousculade des molécules. En 2020, elle a également évoqué une idée encore plus originale : que la physique soit reformulée en termes de nombres imprécis et abandonne ses ambitions de faire des prévisions parfaites de l’avenir.

Tout ce que les horloges mesurent continue de s’avérer insaisissable et mystérieux. 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 1 avril 2024

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

volatiles

Cette découverte scientifique est restée cachée dans un tiroir de musée pendant des décennies.  

Les oiseaux que nous allons rencontrer ne ressemblent à rien de ce que vous avez déjà vu.

Federico Degrange : Ils utilisent leur bec comme une hache pour tuer leurs proies.

Lichtman : Oh, mon Dieu.

Daniel Ksepka : Imaginez la plus grande chose que vous ayez jamais vue en vie en train de voler.

James Hansford : Ils sont colossaux. Ils pèsent environ 1 900 livres.

Alicia Grealy : Les œufs auraient été environ 150 fois plus gros qu'un œuf de poule.

Ksepka : Nous parlons donc de plumes d'environ deux pieds, ce qui est... c'est une grande plume.

Anusuya Chinsamy-Turan : La plupart des gens, vous savez, pensent à l'autruche - et ils pensent que c'est grand. Mais en fait, il y avait de vrais géants à une époque.

Lichtman : Nous parlons d'oiseaux qui pesaient autant qu'une voiture de sport, d'oiseaux qui étaient les plus grands prédateurs de leur époque, parcourant la jungle et dévorant des animaux de la taille d'un petit cheval, d'oiseaux si gargantuesques qu'on pouvait les confondre avec un avion.

Pourtant, ces oiseaux sont passés sous le radar de la paléontologie, en tout cas si on compare avec de nombreux dinosaures. Ces géants ailés sont mystérieux et les scientifiques en apprennent chaque jour un peu plus sur eux.

Au cours des quatre prochains épisodes de Science, vite fait, je vais vous les présenter. Nous partons à la recherche des oiseaux les plus extrêmes qui aient jamais existé. Bienvenue dans la première partie d'une série de quatre épisodes sur les vrais grands oiseaux.

- Bonjour, je m'appelle Daniel Ksepka.

Lichtman : Dan est un paléontologue aviaire.

Ksepka : Et je suis conservateur des sciences au Musée Bruce.

Lichtman : Quelle est votre relation avec les grands oiseaux disparus ?

Ksepka : Je les aime et ils m'aiment.

[CLIP : bruits d'océan]

Lichtman : Ok, je veux que vous fermiez les yeux. Dan va planter le décor du premier monstre que nous allons rencontrer.

Ksepka : Imaginez que vous vous trouvez en Caroline du Sud, il y a 27 millions d'années. Vous regardez la mer.

[CLIP : bruit de tempête]

Ksepka : C'est une mer agitée. Et puis, juste suspendu dans les airs, vous savez, bloquant le soleil... se déploie la plus grande chose que vous ayez jamais vue vivante en train de voler, comme un double albatros - avec une envergure de plus de 6 mètres. Elle est magnifique, et vous survole. C'est probablement un grand moment de votre vie, vous savez, l'émerveillement de voir ça.

Lichtman : Cet oiseau s'appelle Pelagornis sandersi. Il n'a pas de nom commun.

Ksepka : Oh, je l'appelle simplement Pelagornis. 

Lichtman : Dan a été le premier à décrire scientifiquement le fossile. Et nous verrons pourquoi il l'a appelé P. sandersi dans une minute. L'histoire commence lorsque ce fossile est entré dans sa vie, sans crier gare.

Ksepka : Pelagornis était un accident de chance et de fortune.

Lichtman : Dan n'a pas trouvé le fossile. Il avait été déterré en Caroline du Sud dans les années 1980, bien avant que Dan ne pose les yeux dessus.

Ksepka : Ils faisaient des fouilles à l'aéroport de Charleston et quelqu'un est tombé sur des os. Les travaux ont été interrompus.

Lichtman : Et il a fait appel à des renforts. Le regretté Al Sanders, paléontologue au musée local de Charleston.

Ksepka : Il est venu avec une équipe et ils ont ramassé ce qui avait été trouvé. Et puis, vous savez, j'aurais pensé que quiconque aurait trouvé cela se serait arrêté net et en aurait fait sa priorité parce que c'était, vous savez, le plus grand oiseau volant de tous les temps.

Lichtman : C'est du moins ce qu'aurait fait un paléontologue aviaire. Mais Al Sanders était plutôt un spécialiste des fossiles de baleines. Il a donc ramené le fossile au musée et l'a mis de côté.

Ksepka : Et Al l'a rangé dans un tiroir au fond de ce genre d'armoire dans le musée.

Lichtman : Et il est resté là pendant une trentaine d'années. Un jour, Al a parlé à Dan des ossements.  

Ksepka : Oui, et je ne m'attendais pas à voir le plus grand oiseau jamais vu dans un tiroir quand j'y suis allé. J'aurais été content avec un canard ou quelque chose comme ça.

Lichtman : Dans ce tiroir qui prenait la poussière se trouvait un fossile vieux d'environ 27 millions d'années qui ne ressemblait à rien de ce que Dan avait vu auparavant.

Ksepka : J'ai sorti l'os de l'aile, je l'ai posé sur le sol, je me suis allongé à côté et j'ai pris une photo avec mon téléphone portable parce qu'il était plus long que mon bras - c'était l'un des trois os.

Lichtman : Dan l'a baptisé Pelagornis sandersi en l'honneur d'Al Sanders, inconscient conservateur de cette découverte colossale. Dan a entrepris de comprendre tout ce qu'il pouvait sur cet oiseau. Et il s'est rendu compte que l'envergure de l'oiseau n'était pas la seule chose étonnante à son sujet. L'oiseau n'était pas seulement grand. Il était bizarre.

Ksepka : Je n'arrivais pas à croire le crâne. Il ne ressemble pas du tout à un oiseau. Il ressemble presque à un petit alligator. Avec un bec d'un pied et demi de long, contenant des mâchoires, avec des sortes de fausses dents.

Lichtman : Elles sont fausses parce qu'elles ne sont pas faites de ce dont sont faites nos dents : de la dentine et de l'émail. Mais elles ont toujours du mordant.

Ksepka : Oui, ce sont en fait des projections d'os, de petites pointes d'os dont la taille varie. Il y a donc une petite, une moyenne et une grande dans l'ordre, et elles ondulent selon ce schéma.

Lichtman : Et c'était probablement parfaits pour percer et retenir des objets glissants...

Ksepka : Donc, quelque chose comme un poisson ou un calmar une fois attrapé.

Lichtman : Outre les fausses dents de poisson, les os de l'épaule de l'oiseau étaient également étranges. Les omoplates de l'oiseau étaient minuscules. L'articulation de l'épaule et l'os qui s'y rattache avaient une forme inhabituelle.

Ksepka : Il ne semble pas qu'elle puisse vraiment fonctionner comme un oiseau normal. Cet oiseau ne pouvait donc pas lever son aile au-dessus du niveau de son dos. Il ne bat donc pas comme une mouette. Ou comme un oiseau chanteur.

Lichtman : Imaginez un cardinal décollant du sol, poussant ses ailes vers le haut et vers le bas, vite et fort. Ce mastodonte se contente probablement de déployer ses ailes de 20 pieds et de laisser le vent faire le travail.

Ksepka : C'est comme un cerf-volant géant. Il s'est donc probablement élevé dans les airs, soit en faisant face au vent, soit en prenant un départ un peu maladroit, soit en utilisant l'élévation à son avantage...

Lichtman : Et une fois que cet oiseau était en l'air, Dan pense qu'il pouvait probablement s'élever sur de grandes distances.

Ksepka : Je ne serais pas surpris que le Pelagornis puisse traverser l'Atlantique et s'arrêter en Afrique ou en Europe, puis revenir dans le cadre de sa migration saisonnière.

Lichtman : Cette espèce, Pelagornis sandersi, n'a été trouvée qu'à Charleston, mais ses proches - les autres oiseaux de cette bande de fausses dents - sont présents partout.

Ksepka : On les trouve partout dans le monde. Nous avons trouvé des fossiles en Antarctique, en Nouvelle-Zélande, dans l'État de Washington et dans l'Oregon, en Europe, en Afrique, en Amérique du Sud. On en trouve littéralement sur tous les continents.

Lichtman : Entre sa taille gigantesque et ses dents, Pelagornis est peut-être l'un des oiseaux les plus étranges de l'histoire de la Terre. Et la question qui me vient à l'esprit est la suivante : comment cet oiseau est-il apparu ? Dan pense que l'apparition de ce groupe - les pélagornithidés - est peut-être liée à la disparition d'autres créatures volantes étranges et géantes.

Ksepka : Dans le cas des pélagornithidés, ce rôle particulier serait rempli par des reptiles volants au Crétacé. Certaines de ces espèces sont bien plus grandes que Pelagornis et disparaissent lors de la même extinction que les dinosaures nonaviens, ce qui permet à un nouveau groupe d'explorer le rôle d'animal volant de très grande taille. Et les pélagornithidés sont le premier groupe à s'en emparer.

Lichtman : Ils se sont engouffrés dans une niche ouverte. C'est ce que m'ont dit de nombreux chercheurs spécialisés dans les grands oiseaux avec lesquels je me suis entretenu pour cette série : ces oiseaux géants sont entrés en scène en partie parce que l'extinction massive a éliminé la concurrence. Et il ne s'agit pas seulement des dinosaures : d'autres reptiles et les premiers oiseaux se sont également éteints. Les survivants ont donc eu accès à des ressources et à des écosystèmes qui n'existaient pas auparavant. Au fil des ans, j'ai beaucoup entendu parler de la radiation des mammifères, qui ont connu leur heure de gloire après la disparition des dinosaures. Mais dans un monde post-dinosaures, les oiseaux ont également déployé leurs ailes et se sont spécialisés.

Ksepka : Une spectaculaire diffusion des oiseaux s'est produite au cours des quelques millions d'années qui ont suivi cette extinction massive. Les ancêtres des oiseaux modernes ont donc la possibilité d'explorer des habitats arboricoles, prédateurs ou aquatiques pour la première fois. Et ils deviennent vraiment - ils deviennent un peu sauvages.

Lichtman : Pelagornis n'est qu'un début. Nous avons d'autres oiseaux sauvages à rencontrer dans les prochains épisodes : des oiseaux qui se sont élevés tel le phénix après l'extinction des dinosaures et qui sont devenus différents de tous les oiseaux encore en vie aujourd'hui.

Ksepka : Par exemple, les oiseaux-éléphants étaient peut-être les plus grands oiseaux qui aient jamais vécu.

Alicia Grealy : Oui, certains pouvaient peser jusqu'à une tonne. C'est pour cela qu'on les appelle les oiseaux-éléphants, n'est-ce pas ?

Lichtman : C'est ce que nous verrons dans le prochain épisode de cette série en quatre parties.

Auteur: Internet

Info: Flora Lichtman, 31 mai 2023. Emission de radio, repris par https://www.scientificamerican.com/

[ oryctographie ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Le temps est une différence de pression : la respiration comme média environnemental dans "Exhalation" de Ted Chiang

Dans la nouvelle de science-fiction "Exhalation" de Ted Chiang, publiée en 2008, le souffle est le médiateur de la fin du monde.

Ce texte raconte l'histoire d'une espèce mécanique alimentée par l'air. Chaque jour, les membres de cette espèce consomment deux poumons d'aluminium remplis d'air, et chaque jour, ils les remplissent à nouveau à partir d'un réservoir caché sous terre. Leur univers comporte de nombreuses villes et quartiers, mais il est délimité par un "mur de chrome solide" qui s'étend jusqu'au ciel. Un jour, une cérémonie traditionnelle du nouvel an, qui dure toujours exactement une heure (chronométrée avec la précision mécanique de l'espèce), dure quelques minutes de plus. C'est surprenant. La nouvelle se répand et ils découvrent que la manifestation s'est prolongée dans tout leur univers. Les horloges elles-mêmes semblent fonctionner correctement ; c'est plutôt le temps lui-même qui s'est ralenti d'une manière ou d'une autre. Le narrateur, un anatomiste, soupçonne que la vérité réside dans le cerveau des espèces et décide de procéder à une autodissection avec un appareil de sa conception. De même que la nature de la conscience échappe aux humains organiques, elle échappe aussi aux automates de Chiang. Certains pensent que leur esprit est inscrit sur d'innombrables feuilles d'or dans leur cerveau ; d'autres soupçonnent que le flux d'air agit sur d'autres supports plus subtils. Au cours de son autodissection, le narrateur découvre la vérité : la conscience n'est pas inscrite dans le cerveau, mais constituée par la circulation de l'air dans le cerveau, qui forme et reforme les connexions électriques avec une plasticité infinie. De cette révélation, le narrateur déduit que le temps lui-même ne ralentit pas, mais que c'est plutôt la force de l'air à travers le cerveau qui ralentit, altérant la cognition. La deuxième loi de la thermodynamique : l'entropie augmente dans un système fermé, ce que l'univers doit être en fait. Chaque action, pensée et mouvement augmente l'entropie de leur univers, "hâtant l'arrivée de cet équilibre fatal", c'est-à-dire la possibilité de la mort.

Comme de nombreuses histoires de Chiang, "Exhalation" explore les conséquences culturelles étendues d'un concept scientifique, en l'occurrence l'entropie. À travers les principes physiques de la thermodynamique, la respiration met en scène une ironie tragique dans le système mondial. Le travail de maintien d'un type particulier de vie rend toute autre vie impossible. Je lis "Exhalation" comme une riche archive de possibilités théoriques médiatiques, car Chiang relie les problèmes de la technologie, de la médiation, de la conscience, de l'incarnation, de la temporalité et de l'environnement. La respiration est le pivot qui maintient ces concepts ensemble, et en particulier, selon moi, la relation de la respiration avec le temps. Dans cet article, je lis "Exhalation" à la fois à travers et en tant que théorie des médias pour suggérer que la mesure et la perception du temps, qui sont depuis longtemps des problèmes fondamentaux pour les études sur les médias, sont devenues des questions environnementales urgentes. Nous pouvons appréhender ces temporalités environnementales par le biais de la respiration, qui ne fonctionne pas de manière linéaire mais plutôt récursive, franchissant une certaine échelle dans sa répétition.

"Exhalation" met en scène deux types de temps différents : celui de la perception intérieure et celui de la comptabilité extérieure. D'une part, le temps est le sentiment incarné qu'un moment suit le suivant. D'autre part, le temps est la comptabilité de technologies théoriquement impartiales, elles-mêmes étalonnées par rapport à des phénomènes physiques. Le fait que le monde d'"Exhalation" soit entièrement mécanique permet à Chiang d'établir une analogie fluide entre ces deux sens du temps. Le drame découle donc de la découverte par le narrateur que ces sens, qui partagent supposément un substrat matériel, sont devenus non calibrés. Le véritable substrat, découvre le narrateur, n'est pas la matière en elle-même, mais plutôt la différence entre les matières. "Voici pourquoi", écrit le narrateur,

...j'ai dit que l'air n'est pas la source de la vie. L'air ne peut être ni créé ni détruit ; la quantité totale d'air dans l'univers reste constante, et si l'air était tout ce dont nous avons besoin pour vivre, nous ne mourrions jamais. Mais en réalité, la source de la vie est une différence de pression atmosphérique, le flux d'air des espaces où il est épais vers ceux où il est mince.... En réalité, nous ne consommons pas d'air.

En tant que matière, l'air ne s'épuise pas. Au contraire, les actions de l'espèce évacuent la différence, augmentent l'aléatoire et éliminent ainsi l'action mécanique et sa temporalité concomitante.

À première vue, l'approche du temps de Chiang est conforme à certains modèles fondamentaux des études sur les médias, pour lesquels le temps est un effet secondaire de sa technologisation. Pour Harold Innis, critique du début du XXe siècle, par exemple, les supports d'enregistrement disponibles dans une civilisation donnée déterminent les relations possibles avec le temps. Une civilisation basée sur le papier favorise la synchronisation sur de grandes distances, facilitée par la vitesse de circulation du papier, tandis qu'une civilisation basée sur la pierre serait plus diachronique, favorisant les supports statiques qui couvrent de grandes étendues de temps. Les idées d'Innis ont inspiré des approches ultérieures des médias numériques. Pour le théoricien des médias Wolfgang Ernst, les médias numériques sont "critiques en termes de temps", dans la mesure où ils dépendent d'un timing précis pour fonctionner. Le temps numérique est mesuré par des cristaux de quartz qui marquent les tics du temps UNIX, qui compte le début de l'histoire à partir du jeudi 1er janvier 1970, lorsque le carbone atmosphérique ne mesurait que 325 ppm. Ernst fait la distinction entre le temps "dur" et le temps "mou", c'est-à-dire le temps imposé aux machines par la physique et le temps inventé par les machines dans leur fonctionnement. Si le temps dur de la physique se poursuit en dehors de l'objet médiatique, notre appréhension de ce temps est inéluctablement liée à la durabilité du temps mou, généré par les machines.

Je suis loin d'être le seul à m'opposer à ces modèles de temporalité des médias. Je pense, par exemple, à l'argument de Sarah Sharma selon lequel ces modèles sont obsédés par la vitesse : l'hypothèse selon laquelle les médias accélèrent la temporalité et réduisent l'espace, rapprochant les cultures et effaçant le temps passé à attendre que les messages soient transmis. Pour Sharma, la vitesse est trop simple ; en revanche, elle affirme que le principal sujet temporel des médias est la synchronicité, dont la négociation et le maintien exigent un travail culturel et matériel constant. La relation au temps, tout comme la relation à l'environnement, est liée à la position politique de chacun. Elle est également liée au corps. John Durham Peters affirme que le corps humain lui-même est un support temporel, qui calibre une multiplicité vertigineuse d'échelles de temps. Les rythmes circadiens intègrent la "pulsation" géophysique du jour et de la nuit dans les êtres vivants. Vu dans ce cadre, le rythme inconscient de la respiration n'est qu'une partie d'un système médiatique complexe de temporalité qui se calibre et se recalibre constamment. Je souhaite faire progresser le rythme dans mon analyse. Shintaro Miyazaki affirme que le rythme a toujours été un aspect central, bien que méconnu, de la culture algorithmique. Le rythme supplante la notion d'"horloge" ou d'"impulsion", qui ne rendent pas compte de la négociation constante entre les états de la matière caractéristiques des médias numériques. Le rythme nomme alors le travail actif de synchronisation de la médiation. Il s'ensuit que nous pourrions caractériser le drame d'"Exhalation", et peut-être notre crise climatique actuelle, comme une désarticulation du rythme.

Au fur et à mesure que la nouvelle de la découverte du narrateur se répand, la panique face à la nouvelle possibilité de mort se répand également. Pendant quelques pages, "Exhalation" devient une allégorie manifeste des réactions humaines au changement climatique. "Nombreux sont ceux qui réclament une limitation stricte des activités afin de minimiser l'épaississement de notre atmosphère", écrit le narrateur, "les accusations de gaspillage d'air ont dégénéré en rixes furieuses". Une secte quasi-religieuse, les Inverseurs, gagne en popularité. Dans une parodie de la géo-ingénierie, ils construisent un moteur qui comprime l'air, augmentant ainsi la pression atmosphérique globale. "Hélas, observe le narrateur, le moteur lui-même était alimenté par l'air du réservoir..... Il n'a pas inversé l'égalisation, mais a permis d'augmenter la pression de l'air. Il n'a pas inversé l'égalisation mais, comme tout ce qui existe dans le monde, l'a exacerbée". Face à l'impossibilité d'empêcher la dégradation de l'atmosphère, les mécaniciens tentent de remodeler le cerveau lui-même, parallèlement aux adaptations transhumaines aux climats inhospitaliers. Tout cela n'aboutit à rien. Le narrateur termine l'histoire en spéculant sur un avenir possible, lorsqu'un explorateur intrépide franchira le mur de chrome et transformera le système fermé en un système ouvert. Les automates pourraient revivre, grâce à l'introduction d'une nouvelle pression, d'un nouveau souffle, mais leur esprit et leur culture ne survivraient pas.

Mais le souffle n'est rien d'autre qu'une technologie de survie. Je pense ici au travail de Jean-Thomas Tremblay sur le souffle en tant que technique féministe, ou aux archives d'Ashton Crawley sur le souffle dans les pratiques culturelles et spirituelles des Noirs. Les logiques médiatisées de sa mise en péril, de sa vulnérabilité et de sa force sont, comme l'affirme Tremblay, "autant une déclaration phénoménologique qu'une déclaration historique et culturelle". À ces archives respiratoires, j'ajouterais le souffle en tant que médiation environnementale. Cette médiation se produit à différents niveaux, depuis le brouillage par la respiration des frontières entre les médias et le corps jusqu'à la respiration en tant que modèle de réflexion sur le temps environnemental. Il est essentiel de noter qu'il ne s'agit pas d'un temps avec un début ou une fin, mais plutôt de cycles imbriqués de naissance et de décomposition, la médiation s'empilant sur elle-même. Quels nouveaux rythmes peuvent émerger ?

La temporalité de la conclusion d'"Exhalation" apporte une réponse provisoire. Les derniers paragraphes offrent une "valédiction"*, le narrateur s'adressant directement au lecteur. "Le même sort que celui qui m'a frappé t'attend-il ?" demandent-ils. Alors que la majeure partie du récit se déroule au passé, la fin s'inscrit dans un futur imaginé et s'adresse au lecteur à l'impératif : "Visualisez tout cela la prochaine fois que vous regarderez le monde gelé qui vous entoure, et il redeviendra, dans votre esprit, animé et vital. Telle est la temporalité de la spéculation, que Chiang présente comme un mode de réflexion sur l'effondrement écologique, qui ne prend pas l'effondrement comme une donnée et ne croit pas naïvement qu'il peut être évité. Il y a une fin, et il y a ce qui vient après la fin. L'après-fin est un espace de possibilités endeuillées :

Notre univers aurait pu glisser vers l'équilibre en n'émettant rien de plus qu'un sifflement silencieux. Le fait qu'il ait engendré une telle plénitude est un miracle, qui n'a d'égal que l'univers qui vous a donné naissance.

Respirer, c'est être médiateur du temps, pour soi mais aussi pour les autres. C'est être le médiateur de la possibilité du prochain souffle à venir, c'est coordonner et relier une multitude de systèmes naturels et culturels. Dans le cadre de la crise climatique, nous savons désormais de manière concluante que nos médias industriels sont à bout de souffle. Le défi que nous lance "Exhalation" est de les refaçonner pour qu'ils puissent soutenir le souffle.

Auteur: Moro Jeffrey

Info: https://jeffreymoro.com/blog/2022-04-01-defense-talk/ - 7 Jan 2021. Présentation faite dans le cadre du panel Environmental Media au MLA 2021, qui s'est tenu virtuellement. Pour les références du texte, voir directement sur le site. Trad Mg et DeepL. *Formule qui recommande le destinataire à la protection divine

[ homme-machine ] [ cadence ] [ science-fiction ] [ analyse de texte ] [ réchauffement climatique ] [ Gaïa ] [ tétravalence ] [ accélérationnisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel