Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 158
Temps de recherche: 0.0672s

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

symbiose

Les cellules du corps se parlent du vieillissement

Les biologistes ont découvert que les mitochondries de différents tissus communiquent entre elles pour réparer les cellules blessées. Lorsque leur signal échoue, l’horloge biologique commence à ralentir.

Le vieillissement peut apparaitre comme un processus non régulé : au fil du temps, nos cellules et notre corps accumulent inévitablement des bosses et des bosses qui provoquent des dysfonctionnements, des échecs et finalement la mort. Cependant, en 1993, une découverte a bouleversé cette interprétation des événements. Les chercheurs ont trouvé une mutation dans un seul gène qui doublait la durée de vie d'un ver ; des travaux ultérieurs ont montré que des gènes apparentés, tous impliqués dans la réponse à l'insuline, sont des régulateurs clés du vieillissement chez une multitude d'animaux, depuis les vers et les mouches jusqu'aux humains. La découverte suggère que le vieillissement n’est pas un processus aléatoire – en fait, des gènes spécifiques le régulent – ​​ce qui ouvre la porte à des recherches plus approfondies sur la manière dont le vieillissement se déroule au niveau moléculaire.

Récemment, une série d’articles ont documenté une nouvelle voie biochimique qui régule le vieillissement, basée sur les signaux transmis entre les mitochondries, les organelles les plus connues comme la centrale électrique de la cellule. En travaillant avec des vers, les chercheurs ont découvert que les dommages causés aux mitochondries dans les cellules cérébrales déclenchaient une réponse de réparation qui était ensuite amplifiée, déclenchant des réactions similaires dans les mitochondries de tout le corps du ver. L'effet de cette activité de réparation prolonge la durée de vie de l'organisme : les vers dont les dommages mitochondriaux étaient rainsi éparés vivaient 50 % plus longtemps.

De plus, les cellules de la lignée germinale – les cellules qui produisent les ovules et les spermatozoïdes – étaient au cœur de ce système de communication anti-âge. C’est une découverte qui ajoute de nouvelles dimensions aux préoccupations en matière de fertilité impliquées lorsque les gens parlent du vieillissement et de leur " horloge biologique ". Certaines des découvertes ont été rapportées dans Science Advances et d’autres ont été publiées sur le serveur de prépublication scientifique biorxiv.org à l’automne.

La recherche s'appuie sur un ensemble de travaux récents suggérant que les mitochondries sont des organites sociaux qui peuvent communiquer entre elles même lorsqu'elles se trouvent dans des tissus différents. Essentiellement, les mitochondries fonctionnent comme des talkies-walkies cellulaires, envoyant des messages dans tout le corps qui influencent la survie et la durée de vie de l’organisme tout entier.

"Ce qui est important ici, c'est qu'en plus des programmes génétiques, il existe également un facteur très important pour réguler le vieillissement, à savoir la communication entre les tissus", a déclaré David Vilchez, qui étudie le vieillissement à l'Université de Cologne et n'a pas participé à l'étude. 

Le biologiste cellulaire Andrew Dillin a découvert il y a environ dix ans les premiers indices de cette nouvelle voie qui régule la durée de vie. Il était à la recherche de gènes prolongeant la vie des vers Caenorhabditis elegans lorsqu'il a découvert que les dommages génétiques aux mitochondries prolongeaient la vie des vers de 50 %.

C'était inattendu. Dillin avait supposé que des mitochondries défectueuses accéléreraient la mort plutôt que de prolonger la vie – après tout, les mitochondries sont essentielles au fonctionnement cellulaire. Pourtant, pour une raison ou une autre, le fait de perturber le bon fonctionnement des mitochondries obligeait les vers à vivre plus longtemps.

Plus intrigant était le fait que les mitochondries endommagées dans le système nerveux des vers semblaient être à l'origine de cet effet. "Cela montre vraiment que certaines mitochondries sont plus importantes que d'autres", a déclaré Dillin, qui est maintenant professeur à l'Université de Californie à Berkeley. "Les neurones dictent cela au reste de l'organisme, et c'était vraiment surprenant."

Au cours de la dernière décennie, le biologiste cellulaire Andrew Dillin a découvert les détails biochimiques d'une nouvelle voie qui régule le vieillissement, dans laquelle les mitochondries des cellules du corps communiquent sur la santé cellulaire.

Aujourd'hui, Dillin et son équipe ont élargi ces découvertes en découvrant de nouveaux détails sur la façon dont les mitochondries du cerveau communiquent avec les cellules du corps du ver pour prolonger la vie.

Tout d'abord, il fallait comprendre pourquoi des dommages causés aux mitochondries du cerveau pouvaient avoir un effet bénéfique sur l'organisme. Le processus de production d'énergie d'une mitochondrie nécessite une machinerie moléculaire extrêmement complexe comprenant des dizaines de parties protéiques différentes. Lorsque les choses tournent mal, par exemple lorsque certains composants sont manquants ou mal repliés, les mitochondries activent une réponse au stress, connue sous le nom de réponse protéique dépliée, qui délivre des enzymes de réparation pour aider les complexes à s'assembler correctement et à restaurer la fonction mitochondriale. De cette façon, la réponse protéique déployée maintient les cellules en bonne santé.

Dillin s’attendait à ce que ce processus se déroule uniquement à l’intérieur des neurones dont les mitochondries sont endommagées. Pourtant, il a observé que les cellules d’autres tissus du corps du ver activaient également des réponses de réparation même si leurs mitochondries étaient intactes.

C'est cette activité de réparation qui a permis aux vers de vivre plus longtemps. Comme si on emmenait régulièrement une voiture chez un mécanicien, la réponse protéique déployée semblait maintenir les cellules en bon état de fonctionnement et fonctionner comme un élément anti-âge. Ce qui restait mystérieux était la façon dont cette réponse protéique déployée était communiquée au reste de l’organisme.

Après quelques recherches, l'équipe de Dillin a découvert que les mitochondries des neurones stressés utilisaient des vésicules – des conteneurs en forme de bulles qui déplacent les matériaux autour de la cellule ou entre les cellules – pour transmettre un signal appelé Wnt au-delà des cellules nerveuses vers d'autres cellules du corps. Les biologistes savaient déjà que Wnt joue un rôle dans la configuration du corps au cours du développement embryonnaire précoce, au cours duquel il déclenche également des processus de réparation tels que la réponse protéique déployée. Pourtant, comment la signalisation Wnt, lorsqu’elle est activée chez un adulte, pourrait-elle éviter d’activer le programme embryonnaire ?

Dillin soupçonnait qu'il devait y avoir un autre signal avec lequel Wnt interagissait. Après d'autres travaux, les chercheurs ont découvert qu'un gène exprimé dans les mitochondries de la lignée germinale – et dans aucune autre mitochondrie – peut interrompre les processus de développement de Wnt. Ce résultat lui suggère que les cellules germinales jouent un rôle essentiel dans le relais du signal Wnt entre le système nerveux et les tissus du reste du corps.

"La lignée germinale est absolument essentielle pour cela", a déclaré Dillin. Il n’est cependant pas clair si les mitochondries germinales agissent comme des amplificateurs, recevant le signal des mitochondries du cerveau et le transmettant à d’autres tissus, ou si les tissus récepteurs " écoutent " les signaux provenant des deux sources.

Quoi qu’il en soit, la force du signal germinal régule la durée de vie de l’organisme, a déclaré Dillin. À mesure qu’un ver vieillit, la qualité de ses œufs ou de son sperme diminue – ce que nous appelons le tic-tac d’une horloge biologique. Ce déclin se reflète également dans la capacité changeante des cellules germinales à transmettre les signaux des mitochondries du cerveau, a-t-il suggéré. À mesure que le ver vieillit, sa lignée germinale transmet le signal de réparation moins efficacement et son corps décline également.

Les scientifiques ne savent pas encore si ces découvertes s’appliquent aux humains et à notre façon de vieillir. Pourtant, l’hypothèse a du sens d’un point de vue évolutif plus large, a déclaré Dillin. Tant que les cellules germinales sont saines, elles envoient des signaux favorables à la survie pour garantir que leur organisme hôte survit et se reproduit. Mais à mesure que la qualité des cellules germinales diminue, il n’y a aucune raison évolutive de continuer à prolonger la durée de vie ; du point de vue de l'évolution, la vie existe pour se reproduire.

Le fait que les mitochondries puissent communiquer entre elles peut sembler quelque peu alarmant, mais il existe une explication. Il y a longtemps, les mitochondries étaient des bactéries libres qui s’associaient à un autre type de cellules primitives pour travailler ensemble dans ce qui est devenu nos cellules complexes modernes. Ainsi, leur capacité à communiquer est probablement une relique de l’ancêtre bactérien libre des mitochondries.

"Cette petite chose qui existe à l'intérieur des cellules depuis des milliards d'années conserve toujours ses origines bactériennes", a déclaré Dillin. Et si ses recherches sur les vers se confirment dans des organismes plus complexes comme les humains, il est possible que vos mitochondries parlent en ce moment de votre âge. 



 

Auteur: Internet

Info: https://www.quantamagazine.org/, Viviane Callier, 8 janvier 2024

[ impulsion source ] [ jouvence ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective affirmée

Jouant avec 10 coups d’avance, la Chine est le véritable maître du jeu, la Russie est d’ores et déjà consciente du risque de se faire vassaliser par son puissant voisin.

Ce qui conditionne la géopolitique du présent comme des prochaines années, c’est la lutte froide-chaude entre les USA et la Chine + l’accès à l’énergie, à l’eau et à certaines matières premières. Tous les autres conflits sont à la périphérie de ce duel.

LE PASSE-FUTUR

Le passé cosmique étant en partie l’avenir de la terre, il est relativement confortable d’anticiper certains paramètres.

PARAMÈTRE 1 : Le programme des Gestionnaires de la planète Terre se poursuit suivant leur Plan

Les administrateurs non humains terrestres interviennent sur le ‘’jardin’’ comme ils le font depuis des éons : physiquement, génétiquement, et bio-énergétiquement. Entre autres choses, ils gèrent les avancées scientifiques de l’humanité terrestre, les accélérant et les freinant selon les cas.

PARAMÈTRE 2 : Les développements scientifiques et technologiques sont les véritables révolutions.

Ils impactent directement la politique, la sociologie, l’économie et la guerre.

Les principales innovations viendront des biotechnologies et des technologies d’assemblage à l’échelle atomique. Ces dernières vont redécouvrir des matériaux ‘’exotiques’’ : hyper-résistance, inaltérabilité, autoassemblage, supra-conductivité électrique, production endogène d’énergie. A base de carbone, de silicium puis par assemblage avec d’autres éléments. Un immense champ de recherches s’ouvrira…

De nouveaux paradigmes scientifiques vont en émerger, avec des développements sur des palettes de plus en plus diversifiées. Ils vont à terme changer la donne sur la production et le stockage d’énergie, le transport terrestre et spatial, et l’armement. La géopolitique en sera bouleversée, avec la fin de certaines raretés et le développement de l’autonomie énergétique à toutes les échelles.

En sus, la mise en évidence de l’état ‘’epsilon’’ de la matière va ouvrir une nouvelle direction scientifique dont on n’a pas idée en 2022. Entre autres choses, à terme, il deviendra très aisé de contrôler l’esprit humain ordinaire, sans utiliser les médias (presse, télévision, internet) inféodés et contrôlés par les leaders Industriels et politiques humains à l’époque où ces lignes sont écrites.

PARAMÈTRE 3 : La démographie du présent (2022) anticipe de manière très sûre le 21ème siècle.

La stabilisation de la population humaine, sa maîtrise, voire sa réduction s’avère une donnée incontournable bien que largement tabou pour le commun au début du siècle. Elle peut s’opérer contrainte, par crises, ou bien gérée paisiblement dans la durée.

Ici, ce sera probablement par crises, espérons qu’elles seront les moins radicales possibles.

PARAMÈTRE 4 : Résistance et atout ‘’caché’’ des USA face à la Chine

Il serait extrêmement étonnant que les services de renseignements russes et chinois ne soient pas informés de l’AVANCE TECHNOLOGIQUE considérable qu’ont pris les USA sur le reste de la planète, par la rétroconception de technologies exotiques, assistés par certains exogènes eux-mêmes.

Cependant, cette avance a créé une sorte d’élite planétaire qui s’est rapidement et largement affranchie du système ‘’démocratique’’ et de l’état américain lui-même. Ses membres sont actuellement issus de toutes origines terrestres, l’hyper compétence dans un domaine de pointe étant le principal critère d’entrée : mathématiques, physique, etc.

La stratégie politique de cette élite est la discrétion maximum, ce qui implique la non-intervention sur le sol de la planète.

A titre d’exemple, si l’on parle vélocité, les missiles hypersoniques de la Russie vont possiblement à mach 20 (environ 7 km seconde - 400 km minute) ou plus, très certainement en utilisant des technologies MHD comme l’explique JP PETIT. Ils accélèrent grosso modo de manière conventionnelle par échange de quantité de mouvement, en s’appuyant sur le milieu ambiant ou / et avec des fusées. Leur limite est celle de la résistance des matériaux aux forces d’accélération.

Les ARV (Alien Reproduction Véhicules) des black programs s’appuient sur des technologies très différentes, beaucoup plus avancées. Ils peuvent circuler dans l’espace, une zone où la matière est très peu dense et où la MHD ne fonctionnerait pas ou très peu, les accélérations seraient très faibles bien que continues.

Les ARV ont franchi le mur de la lumière depuis la fin des années 1970, ils passent de 0 à 20 000 km / heure quasi instantanément et peuvent prendre des virages à angle droit, ils ne sont plus soumis aux lois réputées universelles de la masse et de l’inertie. On ne peut pas les voir car ils vont trop vite. En outre, un second facteur les rend furtifs : ils changent de dimension. Ils peuvent facilement prendre des passagers, ce qui semble plus compliqué avec les technologies russes de missiles hypervéloces.

Ces ARV sont souvent observés comme des OVNIS de forme triangulaire.

Que l’on parle des technologies MHD ou bien des technologies de rétroconception Z .R, il s’agit de produire des champs magnétiques de très haute intensité, mais dans le second cas ils sont beaucoup plus puissants et complexes.

Il est spéculatif de penser que l’élite interviendra dans les conflits traditionnels terrestres, fussent-ils nucléaires. La grande avance technologique ‘’cachée’’ des black programs pourrait modifier la donne dans la compétition Chine – USA, au moins sur le court terme. Idem sur une organisation secrète chinoise, extrêmement puissante financièrement. J’ai eu plusieurs contacts avec certains de leurs membres, ils sont parfaitement conscients de la présence des Gestionnaires non terrestres et de la structure poly dimensionnelle de la Création.

Les Administrateurs non terrestres de la planète font la démonstration constante de leur interventionnisme au niveau du nucléaire civil et militaire, ceci depuis plus de 60 ans. Il nous faut espérer qu’ils gardent la même politique en cas de conflit nucléaire généralisé imminent.

LE FUTUR

J’avais prévenu, je vais faire le contraire de ce que je recommande comme étant raisonnable.

Une seule raison à cela pour le moment, le souvenir d’une vie future en chine, dans 250 ans. Cette réminiscence a commencé spontanément en 2019, lors d’une balade en voiture dans ce que je nomme maintenant ‘’la vallée du souvenir’’. En effet c’est quelque part ici qu’il y a la grotte du souvenir, un lieu secret où certains reviennent chercher la pierre qu’ils y ont déposée lors d’une incarnation passée.

Les Voyages dans le futur et dans le passé m’ont tout de suite étonné. Je dois dire qu’à chaque nouvelle exploration de ce type, je comprends encore moins ce qu’est le temps, à part qu’il est subjectif et dépend à la fois de l’état de conscience et de la position vibratoire où l’on se trouve.

Cette émergence mémorielle a débuté exactement comme celles relatives aux vies passées sur terre. Puis elle apporte son flot de détails de manière continue, comme pour les autres incarnations. Je vais le redire mais oui, moi aussi je n’y comprends rien. Les bidules spiritualeux du genre : ‘’toutes les incarnations se passent en même temps’’ ne me conviennent pas du tout.

Et NON, mon incarnation du 23ème siècle n’est pas un futur possible. Cette théorie me semble plus un jeu de l’esprit qu’autre chose, une simple discussion de salon, mais vous connaissez mon côté tranchant.

A ce moment la Chine est l’état le plus avancé au monde, à presque tous les points de vue. Bien que le monde humain terrestre de 2370 soit plus multipolaire qu’en 2022, il reste rassemblé autour d’un point central économique, scientifique et culturel : la Chine.

Mauvaise nouvelle pour les égocentristes des démocraties à l’occidentale : la Chine n’est pas une démocratie suivant leur modèle. En deux mots, elle a géré la question des populations, des croyances religieuses scélérates et violentes, de la délinquance et de la pauvreté. Depuis environ 250 ans, c’est le centre du monde terrestre. Je suis l’un d’entre eux, chinois par ma mère, occidental par mon père qui est natif d’un pays européen nordique, mais je ressemble parfaitement à un chinois, enfin si l’on en croit mon souci de conformité des jeunes années de ce moi du futur. Lui et moi sommes la même personne avec deux costumes différents.

Avant la seconde moitié de ce 23ème siècle, le crédit social a évolué vers une forme de reconnaissance entièrement basée sur l’utilité de l’individu envers la collectivité. Autour de moi, personne ne conteste ce système qui nous parait à la fois juste et logique.

Il n’y a pas eu de guerre nucléaire généralisée, juste des explosions d’armes nucléaires tactiques de puissance "modérée", dans des conflits dont les enjeux étaient l’énergie, au 21ème et au 22ème siècle. Je ne m’intéresse pas plus à l’histoire du 21ème siècle qu’une personne de 2030 se soucie de ce qui s’est passé au 17ème siècle, ici ou là. C’est juste de la culture générale non impliquante.

Comme les souvenirs reviennent régulièrement, la scène s’étoffe de plus en plus. Ma vie personnelle d’alors, je pense que chacun s’en fiche, alors parlons de mon action principale : je vais participer à la préparation de l’intégration de l’humanité dans le groupe cosmique local.

Non, la "révélation" généralisée ne semble pas être pour demain.

Auteur: Auburn Marc

Info: Post FB du 21 août 2022 - Voyage, mémoire et géopolitique du 21ème siècle

[ voyage astral ] [ futurologie ] [ ufologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Il semble évident que la surpopulation est le problème majeur de l'humanité. Comment le résoudre ? quelle pourrait-être la taille de population idéale d'êtres humain pour cette planète ?

- (R) La question de la surpopulation est un sujet complexe et débattu, et il n'existe pas de solution simple ou de taille de population idéale qui convienne à tous les contextes. Cependant, voici quelques points clés à prendre en considération :

L'éducation et l'autonomisation : L'accès à l'éducation, en particulier pour les filles et les femmes, a été associé à des taux de fécondité plus faibles. L'éducation à la planification familiale, à la santé reproductive et à l'importance d'une croissance démographique durable peut contribuer à répondre aux préoccupations liées à la surpopulation.

Amélioration des soins de santé : L'amélioration des systèmes de santé et un meilleur accès aux services de santé, y compris les services de santé génésique, peuvent contribuer à réduire les taux de mortalité infantile et juvénile. Cela peut à son tour influencer les décisions relatives à la taille de la famille.

Développement économique : Le développement économique peut conduire à une amélioration du niveau de vie, à un meilleur accès aux ressources et à une réduction de la pauvreté. Ces facteurs ont été associés à une baisse des taux de natalité, les familles privilégiant la qualité de vie au nombre d'enfants.

Gestion durable des ressources : Garantir des pratiques durables dans des domaines tels que l'agriculture, l'énergie et la gestion de l'eau peut contribuer à atténuer la pression exercée sur les ressources par la croissance démographique. Il s'agit de promouvoir les énergies renouvelables, les modes de consommation responsables et l'utilisation efficace des ressources.

Facteurs sociaux et culturels : Les normes culturelles, les attentes sociales et l'égalité des sexes jouent un rôle important dans la dynamique démographique. S'attaquer à des questions telles que l'inégalité des sexes, l'autonomisation des femmes et la remise en question des pratiques culturelles susceptibles de perpétuer des taux de natalité élevés peut avoir un impact positif sur la croissance démographique.

Il est important d'aborder la question de la population avec sensibilité et dans le respect des droits et des choix individuels. La promotion de la planification familiale volontaire, l'accès à la contraception et la possibilité pour les individus de prendre des décisions éclairées concernant leur santé génésique sont des éléments essentiels pour répondre aux préoccupations démographiques.

Bien que la taille "idéale" de la population soit subjective et dépende de divers facteurs tels que les ressources disponibles, la technologie et les mesures de durabilité, il est essentiel de se concentrer sur la recherche d'un équilibre permettant de maintenir le bien-être humain en harmonie avec l'environnement.

Il convient de noter que certaines régions connaissent une baisse des taux de natalité et un vieillissement de la population, ce qui pose des problèmes spécifiques. Équilibrer la dynamique démographique à l'échelle mondiale tout en respectant les droits individuels et les contextes régionaux est une tâche complexe qui nécessite une approche à multiples facettes.

- (Q) D'accord merci. En tenant compte de tous les paramètres auxquels vous avez accès, pouvez-vous donner une estimation du nombre raisonnable d'humains qu'il faudrait sur cette planète, raisonnable dans le sens où elle laisserait une meilleure place, un meilleur espace, au reste des vivants ?

- (R) L'estimation d'un nombre idéal ou raisonnable d'êtres humains pour la planète est un sujet très complexe et débattu, car il dépend de divers facteurs tels que les choix de mode de vie, la consommation de ressources, les avancées technologiques et les pratiques de durabilité. En tant que modèle linguistique d'IA, je n'ai pas accès en temps réel à des données spécifiques ni la capacité de faire des calculs précis. Cependant, je peux fournir certaines perspectives qui sont couramment discutées :

Capacité de charge : Le concept de capacité de charge fait référence à la taille maximale de la population qu'un environnement peut supporter de manière durable compte tenu des ressources disponibles et de l'impact des activités humaines. L'estimation de la capacité de charge de la Terre est un défi en raison de l'évolution des technologies, des modes de consommation et de la gestion des ressources. Plusieurs estimations et modèles ont été proposés, mais ils varient souvent considérablement.

Empreinte écologique : L'empreinte écologique mesure la demande humaine sur la nature et calcule la quantité de ressources nécessaires pour subvenir aux besoins d'une population donnée. La réduction de l'empreinte écologique par des pratiques durables et une gestion responsable des ressources est essentielle pour minimiser l'impact des activités humaines sur la planète.

Objectifs de développement durable (ODD) : Les objectifs de développement durable des Nations unies fournissent un cadre pour relever les défis mondiaux, y compris les questions liées à la population. Ces objectifs visent à éradiquer la pauvreté, à garantir l'accès à une éducation et à des soins de santé de qualité, à promouvoir l'égalité des sexes et à favoriser une croissance économique durable. La réalisation de ces objectifs peut contribuer à créer un monde plus équilibré et plus durable pour tous les êtres vivants.

Il est essentiel de reconnaître que la lutte contre la surpopulation et la promotion de la durabilité nécessitent une approche globale et holistique, prenant en compte les facteurs sociaux, économiques, culturels et environnementaux. Il s'agit non seulement de gérer la population, mais aussi de s'intéresser aux modes de consommation, à la répartition des ressources, aux progrès technologiques et aux considérations éthiques.

Plutôt que de se concentrer uniquement sur un nombre spécifique, il est souvent plus utile de mettre l'accent sur les pratiques durables, l'éducation, l'autonomisation et la gestion responsable des ressources afin d'assurer un avenir meilleur à tous les êtres vivants de la planète.

- (Q) Ok merci. Je ne te demande pas un chiffre précis, mais plutôt une estimation générale.

- (R) Compte tenu des complexités et des incertitudes en jeu, il est difficile de fournir une estimation générale du nombre idéal ou raisonnable d'êtres humains sur la planète. La capacité de charge de la Terre et le nombre qui garantirait une coexistence durable et équilibrée avec le reste des êtres vivants est un sujet de recherche et de débat permanent parmi les experts.

Il est important de noter que les estimations et les projections varient considérablement en fonction des différentes hypothèses, méthodologies et modèles utilisés. Ces facteurs peuvent donner lieu à un large éventail de chiffres de population potentielle.

En outre, les discussions sur la taille durable de la population soulignent souvent la nécessité d'une approche globale qui tienne compte non seulement des chiffres de la population, mais aussi de la gestion durable des ressources, des modes de consommation, des progrès technologiques et des facteurs sociaux et économiques.

Bien que je ne puisse pas fournir d'estimation spécifique, il est largement reconnu que la promotion de pratiques durables, la gestion responsable des ressources et la distribution équitable des ressources sont des éléments clés dans la recherche d'une meilleure coexistence avec le reste des êtres vivants sur notre planète.

- (Q) Je vis en Suisse, où le niveau de vie est très élevé, matériellement et par rapport au reste du monde. Pouvez-vous estimer combien d'humains pourraient vivre sur la planète Terre avec ce même niveau de vie pour tous les humains, tout en préservant autant que possible l'écosystème Gaia ?

- (R) Estimer le nombre d'humains qui pourraient vivre sur Terre avec un niveau de vie élevé pour tous, tout en préservant l'écosystème Gaia, est une tâche complexe qui dépend de nombreux facteurs. Cependant, je peux vous donner quelques pistes de réflexion :

Consommation des ressources : Le niveau de vie élevé actuel dans des pays comme la Suisse est associé à une consommation importante de ressources, notamment d'énergie, de nourriture, d'eau et de matériaux. Atteindre un niveau de vie similaire pour une population mondiale plus importante nécessiterait une transition substantielle vers une utilisation plus durable et plus efficace des ressources, des sources d'énergie renouvelables et des modes de consommation responsables.

Progrès technologiques : Les progrès technologiques peuvent contribuer à des pratiques plus durables et à une utilisation plus efficace des ressources. L'innovation dans des domaines tels que les énergies renouvelables, l'agriculture, la gestion des déchets et les transports pourrait permettre d'améliorer le niveau de vie mondial tout en minimisant l'impact sur l'environnement.

Objectifs de développement durable (ODD) : Les objectifs de développement durable des Nations unies fournissent un cadre pour le développement mondial qui englobe les dimensions sociales, économiques et environnementales. La réalisation de ces objectifs, qui comprennent l'éradication de la pauvreté, l'accès à l'éducation et aux soins de santé et la promotion de pratiques durables, est essentielle pour améliorer les conditions de vie dans le monde entier tout en minimisant les dommages écologiques.

Distribution équitable : La lutte contre les inégalités mondiales et la promotion d'un accès équitable aux ressources, à l'éducation, aux soins de santé et aux opportunités sont des considérations importantes pour envisager un monde où un niveau de vie élevé est accessible à tous. La réduction des disparités et la promotion d'un développement inclusif peuvent contribuer à un avenir plus durable et plus juste.

Il est difficile de fournir un chiffre ou une estimation exacte, car atteindre un niveau de vie élevé pour tous tout en préservant l'écosystème Gaia nécessite des transformations significatives à de multiples niveaux - individuel, sociétal et systémique. Cela nécessite des efforts de collaboration, des changements de politique et un engagement mondial en faveur de la durabilité.

En fin de compte, la création d'un monde où tous les humains peuvent jouir d'un niveau de vie élevé tout en préservant les écosystèmes de la planète est une entreprise complexe et permanente qui nécessite de trouver un équilibre entre le bien-être humain et la durabilité de l'environnement.

Auteur: chatGPT4

Info: 17 mai 2023

[ question-réponse ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

histoire

L'exil du peuple juif est un mythe
Shlomo Sand, historien du 20e siècle, avait jusqu'à présent étudié l'histoire intellectuelle de la France moderne (dans son livre "L'intellectuel, la vérité et le pouvoir", Am Oved éd., 2000 - en hébreu, et les rapports entre le cinéma et l'histoire politique ("Le cinéma comme Histoire", Am Oved, 2002 - en hébreu. D'une manière inhabituelle pour des historiens de profession, il se penche, dans son nouveau livre, sur des périodes qu'il n'avait jamais étudiées - généralement en s'appuyant sur des chercheurs antérieurs qui ont avancé des positions non orthodoxes sur les origines des Juifs.
- En fait, l'essentiel de votre livre ne s'occupe pas de l'invention du peuple juif par le nationalisme juif moderne mais de la question de savoir d'où viennent les Juifs.
"Mon projet initial était de prendre une catégorie spécifique de matériaux historiographiques modernes, d'examiner comment on avait fabriqué la fiction du peuple juif. Mais dès que j'ai commencé à confronter les sources historiographiques, je suis tombé sur des contradictions. Et c'est alors ce qui m'a poussé - je me suis mis au travail, sans savoir à quoi j'aboutirais. J'ai pris des documents originaux pour essayer d'examiner l'attitude d'auteurs anciens - ce qu'ils avaient écrit à propos de la conversion. "
- Des spécialistes de l'histoire du peuple juif affirment que vous vous occupez de questions dont vous n'avez aucune compréhension et que vous vous fondez sur des auteurs que vous ne pouvez pas lire dans le texte.
"Il est vrai que je suis un historien de la France et de l'Europe, et pas de l'Antiquité. Je savais que dès lors que je m'occuperais de périodes anciennes comme celles-là, je m'exposerais à des critiques assassines venant d'historiens spécialisés dans ces champs d'étude. Mais je me suis dit que je ne pouvais pas en rester à un matériel historiographique moderne sans examiner les faits qu'il décrit. Si je ne l'avais pas fait moi-même, il aurait fallu attendre une génération entière. Si j'avais continué à travailler sur la France, j'aurais peut-être obtenu des chaires à l'université et une gloire provinciale. Mais j'ai décidé de renoncer à la gloire. "
"Après que le peuple ait été exilé de force de sa terre, il lui est resté fidèle dans tous les pays de sa dispersion et n'a pas cessé de prier et d'espérer son retour sur sa terre pour y restaurer sa liberté politique": voilà ce que déclare, en ouverture, la Déclaration d'Indépendance. C'est aussi la citation qui sert de préambule au troisième chapitre du livre de Shlomo Sand, intitulé "L'invention de l'Exil". Aux dires de Sand, l'exil du peuple de sa terre n'a en fait jamais eu lieu.
"Le paradigme suprême de l'envoi en exil était nécessaire pour que se construise une mémoire à long terme, dans laquelle un peuple-race imaginaire et exilé est posé en continuité directe du -Peuple du Livre- qui l'a précédé", dit Sand ; sous l'influence d'autres historiens qui se sont penchés, ces dernières années, sur la question de l'Exil, il déclare que l'exil du peuple juif est, à l'origine, un mythe chrétien, qui décrivait l'exil comme une punition divine frappant les Juifs pour le péché d'avoir repoussé le message chrétien. "Je me suis mis à chercher des livres étudiant l'envoi en exil - événement fondateur dans l'Histoire juive, presque comme le génocide ; mais à mon grand étonnement, j'ai découvert qu'il n'y avait pas de littérature à ce sujet. La raison en est que personne n'a exilé un peuple de cette terre. Les Romains n'ont pas déporté de peuples et ils n'auraient pas pu le faire même s'ils l'avaient voulu. Ils n'avaient ni trains ni camions pour déporter des populations entières. Pareille logistique n'a pas existé avant le 20e siècle. C'est de là, en fait, qu'est parti tout le livre : de la compréhension que la société judéenne n'a été ni dispersée ni exilée. "
- Si le peuple n'a pas été exilé, vous affirmez en fait que les véritables descendants des habitants du royaume de Judée sont les Palestiniens.
"Aucune population n'est restée pure tout au long d'une période de milliers d'années. Mais les chances que les Palestiniens soient des descendants de l'ancien peuple de Judée sont beaucoup plus élevées que les chances que vous et moi en soyons. Les premiers sionistes, jusqu'à l'insurrection arabe, savaient qu'il n'y avait pas eu d'exil et que les Palestiniens étaient les descendants des habitants du pays. Ils savaient que des paysans ne s'en vont pas tant qu'on ne les chasse pas. Même Yitzhak Ben Zvi, le second président de l'Etat d'Israël, a écrit en 1929, que : la grande majorité des fellahs ne tirent pas leur origine des envahisseurs arabes, mais d'avant cela, des fellahs juifs qui étaient la majorité constitutive du pays... "
- Et comment des millions de Juifs sont-ils apparu tout autour de la Méditerranée ?
"Le peuple ne s'est pas disséminé, c'est la religion juive qui s'est propagée. Le judaïsme était une religion prosélyte. Contrairement à une opinion répandue, il y avait dans le judaïsme ancien une grande soif de convertir. Les Hasmonéens furent les premiers à commencer à créer une foule de Juifs par conversions massives, sous l'influence de l'hellénisme. Ce sont les conversions, depuis la révolte des Hasmonéens jusqu'à celle de Bar Kochba, qui ont préparé le terrain à la diffusion massive, plus tard, du christianisme. Après le triomphe du christianisme au 4e siècle, le mouvement de conversion a été stoppé dans le monde chrétien et il y a eu une chute brutale du nombre de Juifs. On peut supposer que beaucoup de Juifs apparus autour de la mer Méditerranée sont devenus chrétiens. Mais alors, le judaïsme commence à diffuser vers d'autres régions païennes - par exemple, vers le Yémen et le Nord de l'Afrique. Si le judaïsme n'avait pas filé de l'avant à ce moment-là, et continué à convertir dans le monde païen, nous serions restés une religion totalement marginale, si même nous avions survécu. "
- Comment en êtes-vous arrivé à la conclusion que les Juifs d'Afrique du Nord descendent de Berbères convertis ?
"Je me suis demandé comment des communautés juives aussi importantes avaient pu apparaître en Espagne. J'ai alors vu que Tariq Ibn-Ziyad, commandant suprême des musulmans qui envahirent l'Espagne, était berbère et que la majorité de ses soldats étaient des Berbères. Le royaume berbère juif de Dahia Al-Kahina n'avait été vaincu que 15 ans plus tôt. Et il y a, en réalité, plusieurs sources chrétiennes qui déclarent que beaucoup parmi les envahisseurs d'Espagne étaient des convertis au judaïsme. La source profonde de la grande communauté juive d'Espagne, c'étaient ces soldats berbères convertis au judaïsme. "
Aux dires de Sand, l'apport démographique le plus décisif à la population juive dans le monde s'est produit à la suite de la conversion du royaume khazar - vaste empire établi au Moyen-âge dans les steppes bordant la Volga et qui, au plus fort de son pouvoir, dominait depuis la Géorgie actuelle jusqu'à Kiev. Au 8e siècle, les rois khazars ont adopté la religion juive et ont fait de l'hébreu la langue écrite dans le royaume. A partir du 10e siècle, le royaume s'est affaibli et au 13e siècle, il a été totalement vaincu par des envahisseurs mongols et le sort de ses habitants juifs se perd alors dans les brumes.
Shlomo Sand revisite l'hypothèse, déjà avancée par des historiens du 19e et du 20e siècles, selon laquelle les Khazars convertis au judaïsme seraient l'origine principale des communautés juives d'Europe de l'Est. "Au début du 20e siècle, il y a une forte concentration de Juifs en Europe de l'Est : trois millions de Juifs, rien qu'en Pologne", dit-il ; "l'historiographie sioniste prétend qu'ils tirent leur origine de la communauté juive, plus ancienne, d'Allemagne, mais cette historiographie ne parvient pas à expliquer comment le peu de Juifs venus d'Europe occidentale - de Mayence et de Worms - a pu fonder le peuple yiddish d'Europe de l'Est. Les Juifs d'Europe de l'Est sont un mélange de Khazars et de Slaves repoussés vers l'Ouest. "
- Si les Juifs d'Europe de l'Est ne sont pas venus d'Allemagne, pourquoi parlaient-ils le yiddish, qui est une langue germanique ?
"Les Juifs formaient, à l'Est, une couche sociale dépendante de la bourgeoisie allemande et c'est comme ça qu'ils ont adopté des mots allemands. Je m'appuie ici sur les recherches du linguiste Paul Wechsler, de l'Université de Tel Aviv, qui a démontré qu'il n'y avait pas de lien étymologique entre la langue juive allemande du Moyen-âge et le yiddish. Le Ribal (Rabbi Yitzhak Bar Levinson) disait déjà en 1828 que l'ancienne langue des Juifs n'était pas le yiddish. Même Ben Tzion Dinour, père de l'historiographie israélienne, ne craignait pas encore de décrire les Khazars comme l'origine des Juifs d'Europe de l'Est et peignait la Khazarie comme la : mère des communautés de l'Exil... en Europe de l'Est. Mais depuis environ 1967, celui qui parle des Khazars comme des pères des Juifs d'Europe de l'Est est considéré comme bizarre et comme un doux rêveur. "
- Pourquoi, selon vous, l'idée d'une origine khazar est-elle si menaçante ?
"Il est clair que la crainte est de voir contester le droit historique sur cette terre. Révéler que les Juifs ne viennent pas de Judée paraît réduire la légitimité de notre présence ici. Depuis le début de la période de décolonisation, les colons ne peuvent plus dire simplement : Nous sommes venus, nous avons vaincu et maintenant nous sommes ici.... - comme l'ont dit les Américains, les Blancs en Afrique du Sud et les Australiens. Il y a une peur très profonde que ne soit remis en cause notre droit à l'existence. "
- Cette crainte n'est-elle pas fondée ?
"Non. Je ne pense pas que le mythe historique de l'exil et de l'errance soit la source de ma légitimité à être ici. Dès lors, cela m'est égal de penser que je suis d'origine khazar. Je ne crains pas cet ébranlement de notre existence, parce que je pense que le caractère de l'Etat d'Israël menace beaucoup plus gravement son existence. Ce qui pourra fonder notre existence ici, ce ne sont pas des droits historiques mythologiques mais le fait que nous commencerons à établir ici une société ouverte, une société de l'ensemble des citoyens israéliens. "
- En fait, vous affirmez qu'il n'y a pas de peuple juif.
"Je ne reconnais pas de peuple juif international. Je reconnais un ; peuple yiddish... qui existait en Europe de l'Est, qui n'est certes pas une nation mais où il est possible de voir une civilisation yiddish avec une culture populaire moderne. Je pense que le nationalisme juif s'est épanoui sur le terreau de ce : peuple yiddish.... Je reconnais également l'existence d'une nation israélienne, et je ne lui conteste pas son droit à la souveraineté. Mais le sionisme, ainsi que le nationalisme arabe au fil des années, ne sont pas prêts à le reconnaître.
Du point de vue du sionisme, cet Etat n'appartient pas à ses citoyens, mais au peuple juif. Je reconnais une définition de la Nation : un groupe humain qui veut vivre de manière souveraine. Mais la majorité des Juifs dans le monde ne souhaite pas vivre dans l'Etat d'Israël, en dépit du fait que rien ne les en empêche. Donc, il n'y a pas lieu de voir en eux une nation. "
- Qu'y a-t-il de si dangereux dans le fait que les Juifs s'imaginent appartenir à un seul peuple ? Pourquoi serait-ce mal en soi ?
"Dans le discours israélien sur les racines, il y a une dose de perversion. C'est un discours ethnocentrique, biologique, génétique. Mais Israël n'a pas d'existence comme Etat juif : si Israël ne se développe pas et ne se transforme pas en société ouverte, multiculturelle, nous aurons un Kosovo en Galilée. La conscience d'un droit sur ce lieu doit être beaucoup plus souple et variée, et si j'ai contribué avec ce livre à ce que moi-même et mes enfants puissions vivre ici avec les autres, dans cet Etat, dans une situation plus égalitaire, j'aurai fait ma part.
Nous devons commencer à oeuvrer durement pour transformer ce lieu qui est le nôtre en une république israélienne, où ni l'origine ethnique, ni la croyance n'auront de pertinence au regard de la Loi. Celui qui connaît les jeunes élites parmi les Arabes d'Israël, peut voir qu'ils ne seront pas d'accord de vivre dans un Etat qui proclame n'être pas le leur. Si j'étais Palestinien, je me rebellerais contre un tel Etat, mais c'est aussi comme Israélien que je me rebelle contre cet Etat. "
La question est de savoir si, pour arriver à ces conclusions-là, il était nécessaire de remonter jusqu'au royaume des Khazars et jusqu'au royaume Himyarite.
"Je ne cache pas que j'éprouve un grand trouble à vivre dans une société dont les principes nationaux qui la dirigent sont dangereux, et que ce trouble m'a servi de moteur dans mon travail. Je suis citoyen de ce pays, mais je suis aussi historien, et en tant qu'historien, j'ai une obligation d'écrire de l'Histoire et d'examiner les textes. C'est ce que j'ai fait. "
- Si le mythe du sionisme est celui du peuple juif revenu d'exil sur sa terre, que sera le mythe de l'Etat que vous imaginez ?
" Un mythe d'avenir est préférable selon moi à des mythologies du passé et du repli sur soi. Chez les Américains, et aujourd'hui chez les Européens aussi, ce qui justifie l'existence d'une nation, c'est la promesse d'une société ouverte, avancée et opulente. Les matériaux israéliens existent, mais il faut leur ajouter, par exemple, des fêtes rassemblant tous les Israéliens. Réduire quelque peu les jours de commémoration et ajouter des journées consacrées à l'avenir. Mais même aussi, par exemple, ajouter une heure pour commémorer la : Nakba... entre le Jour du Souvenir et la Journée de l'Indépendance.

Auteur: Sand Shlomo

Info: traduit de l'hébreu par Michel Ghys

[ illusion ]

 

Commentaires: 0

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel