Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 69
Temps de recherche: 0.0752s

recombinaison latérale

Ce que nous savons sur la façon dont l'ADN passe d'une espèce à l'autre

Si vous avez les yeux de votre père ou les taches de rousseur de votre grand-mère, vous pouvez remercier les gènes transmis au sein de votre famille. Mais les chercheurs ont commencé à reconnaître qu’à un niveau biologique plus profond, un autre type d’héritage génétique se produit également. Les gènes peuvent glisser entre individus – ou même entre espèces – grâce à un processus connu sous le nom de transfert horizontal de gènes. Cela est peut-être loin d’être quotidien dans des organismes complexes comme les humains, mais sur une échelle de temps évolutive, cela pourrait se produire beaucoup plus souvent qu’on ne le pensait.

Les transferts horizontaux de gènes sont relativement courants dans le monde bactérien, où ils jouent un rôle important dans l’évolution et l’adaptation, ainsi que dans la propagation de la résistance aux antibiotiques. En fait, les biologistes évolutionnistes ont du mal à démêler certaines des premières branches de l’arbre de vie, car le nombre élevé de transferts horizontaux entre ces anciens organismes unicellulaires a si étroitement entrelacé les lignées. Les scientifiques savent également très peu de choses sur la façon dont ce processus pourrait avoir façonné de manière significative les génomes d’organismes complexes comme les plantes et les animaux.

Pendant de nombreuses années, les scientifiques qui soutenaient que des sauts horizontaux pouvaient se produire chez des espèces multicellulaires telles que les poissons ont été critiqués par leurs pairs. Une telle migration nécessite une chaîne d'événements improbables : un gène d'un individu doit d'une manière ou d'une autre pénétrer dans les cellules germinales qui produisent les spermatozoïdes ou les ovules d'un individu d'une autre espèce. De là, il doit pénétrer dans le noyau et pénétrer dans le génome de son nouvel hôte, qui doit ensuite produire une progéniture avec ces ovules ou spermatozoïdes pour transmettre ce génome modifié. Les moteurs importants de ce processus sont souvent les éléments génétiques appelés transposons, ou " gènes sauteurs ", qui peuvent se copier et se coller à différents endroits d’un génome, ou même d’un génome vers un autre. Parfois, ils semblent le faire en pénétrant dans le corps d'un nouvel hôte à l'intérieur d'un parasite ou d'un virus. C'est un parcours qui comporte de nombreuses étapes improbables, mais la biologie moléculaire suggère que ça existe.

Des études ont identifié des cas de transferts horizontaux chez un large éventail d’animaux, notamment des poissons, des grenouilles et des serpents. Pourtant, on ne sait pas exactement dans quelle mesure les organismes eucaryotes complexes partagent ainsi des gènes avec d’autres formes de vie. Les données recueillies jusqu'à présent suggèrent qu'il est plus probable que les gènes passent des bactéries aux eucaryotes que l'inverse : des expériences montrent que lorsque les gènes eucaryotes pénètrent dans les bactéries, celles-ci les éjectent le plus souvent.

Les biologistes ont fait de nombreuses découvertes surprenantes ces dernières années sur le mouvement des gènes entre les espèces.

Quoi de neuf et remarquable

En 2022, des chercheurs ont rapporté qu’un gène appelé BovB s’était déplacé indépendamment des serpents vers les grenouilles au moins 50 fois dans diverses parties de la planète. Bizarrement, ils ont constaté que cela se produisait beaucoup plus souvent à Madagascar qu’ailleurs. On ne sait pas pourquoi. Un facteur pourrait être le nombre élevé de parasites tels que les sangsues qui vivent sur l'île et se déplacent d'hôte en hôte, transportant des séquences d'ADN acquises dans le sang qu'elles ont bu. Les preuves d'anciens transferts de gènes horizontaux sont souvent brouillées avec le temps, mais les chercheurs espèrent désormais détecter les transferts sur le fait en examinant les organismes des sources chaudes du parc national de Yellowstone.

Le transfert horizontal de gènes semble également avoir joué un rôle dans la manière dont la vie marine autour des pôles a développé – ou plutôt emprunté – des défenses pour survivre au froid glacial. Les chercheurs ont pu montrer que les harengs et les éperlans, deux groupes de poissons qui ont divergé il y a plus de 250 millions d'années, utilisent le même gène pour fabriquer des protéines qui empêchent la croissance des cristaux de glace dans leur corps. Il a fallu des décennies pour convaincre les chercheurs que le gène devait être passé du hareng à l'éperlan. On ne sait pas exactement dans quelle mesure ce type de transfert horizontal se produit entre les cellules vertébrées, mais une étude a mis en évidence au moins 975 transferts entre 307 génomes de vertébrés, principalement chez les poissons à nageoires rayonnées.

Les transferts de gènes entre espèces concernent même les humains, ou plus particulièrement nos microbiomes, les puissantes armées de micro-organismes qui occupent nos intestins et d’autres parties du corps. Le microbiome d’un bébé humain vient d’abord de sa mère. Mais étonnamment, ces dons maternels ne sont pas toujours des cellules entières. De petits fragments d'ADN provenant des bactéries de la mère peuvent passer aux bactéries du bébé par le biais de transferts de gènes horizontaux, même des mois après la naissance. Ces gènes, qui proviennent souvent de souches bactériennes utiles chez la mère, pourraient jouer un rôle important dans la croissance et le développement du bébé. Bien qu’il ne soit pas clair si les transferts horizontaux de gènes profitent directement au bébé en lui transmettant des fonctions particulières, ils pourraient être indirectement utiles en assemblant un microbiome intestinal plus performant.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ fév 2024, Yasemin Saplakoglu

[ échange ] [ transduction ] [ HVT ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sociologie

La tyrannie de l’apparence
A l’école, à la fac, au travail… Avant même nos compétences, c’est notre physique qui est jugé. Une dictature du beau dénoncée, preuves à l’appui, par le sociologue Jean-François Amadieu.
Depuis l’Antiquité grecque, nous sommes victimes et vecteurs du même présupposé : ce qui est beau est bon. Aujourd’hui encore, tout le monde le pressent et personne ne veut y croire : notre vie tout entière est soumise à la tyrannie des apparences.
Pour la première fois en France, un livre, Le Poids des apparences (Odile Jacob, 2002), en apporte la démonstration. Professeur de sociologie, Jean-François Amadieu a recensé trente ans d’études américaines et européennes sur le sujet et en tire une conclusion effarante : toute notre vie, dans tous les domaines, en amour comme au travail, notre apparence conditionnera nos relations aux autres.
Poussant son analyse, le sociologue démontre combien la beauté est un formidable outil de discrimination sociale que les élites imposent aux classes les plus basses. Dans le monde entier, les canons de la beauté ne sont-ils pas ceux des Blancs américains diffusés par la télévision et le cinéma : blondeur, minceur, jeunesse. Que l’on s’y résolve ou que l’on se révolte, nous n’en sommes pas moins, dès la naissance, soumis à la première des injustices : celle des apparences.
Au berceau déjà
Les regards qui se portent sur le nourrisson dans son berceau ne sont pas neutres. Un bébé beau attirera force sourires et risettes alors qu’un enfant moins séduisant créera une certaine gêne chez les adultes. Même infime – oreilles décollées, tache de naissance, dissymétrie des traits –, la différence physique sera vécue par les parents comme un handicap futur. Et suscitera des comportements différents à l’égard du nourrisson.
" On ne peut pas dire qu’une mère ou un père préfèrera un enfant plus beau que ses frères et sœurs, explique Jean-François Amadieu. En revanche, les études ont prouvé que les activités seront différentes selon que l’enfant est beau ou laid. Par exemple, une mère jouera beaucoup avec son nourrisson s’il est beau, tandis qu’elle focalisera sur les apprentissages s’il est disgracieux. Et parce qu’elle sait qu’il risque de se heurter, plus tard, aux regards des autres, elle s’en occupera plus. Il est d’ailleurs prouvé que ces enfants réussiront mieux à l’école que la moyenne. On peut ici parler d’un effet de compensation à la laideur."
A l’école du favoritisme
A la maternelle déjà, les enfants beaux sont privilégiés. Les enseignants ont une meilleure opinion d’eux, leur accordent davantage d’attention, les évaluent plus chaleureusement - in Modèles du corps et psychologie esthétique de Jean Maisonneuve et Marilou Bruchon-Schweitzer (PUF, 1981). Cette bienveillance engendre une confiance chez l’enfant qui l’accompagnera toute sa vie. D’autant qu’elle va mettre en place une dynamique du succès qui se poursuivra à l’âge adulte. Ensuite, au collège et au lycée, une note peut varier de 20 à 40 % selon la beauté de l’élève. Les études prouvent qu’une étudiante laide mais de bon niveau est peu défavorisée par rapport à une étudiante belle de même niveau. En revanche, si la plus jolie est mauvaise élève, ses notes seront nettement surévaluées par les examinateurs, expliquent Jean Maisonneuve et Marilou Bruchon-Schweitzer dans Le Corps et la Beauté (PUF, 1999).
"Beaucoup plus que l’enfant beau, l’enfant laid est jugé responsable de ses échecs scolaires autant que de ses fautes, remarque Jean-François Amadieu. D’abord par les instituteurs, puis par les professeurs et enfin par les recruteurs. La beauté est un statut qui vaut diplôme : elle enrichit, comme la laideur altère, nos compétences."
La tête de l’emploi
Diplôme en poche, vous pensiez être délivré de la dictature des apparences ? Erreur. "Une apparence avenante est cruciale au moment de l’embauche, mais également pour une bonne intégration au sein de l’entreprise, explique Jean-François Amadieu. Elle permet une meilleure évaluation des performances et favorise un bon déroulement de carrière." Le candidat sera jugé d’abord sur des critères extérieurs : soin apporté à sa personne, poids, beauté physique, etc. 50 % des employeurs jugent qu’un physique séduisant est un critère important de recrutement (Multicity Study of Urban Inequality de H. Holzer, Michigan State University, 1993). Les critères négatifs : poids excessif, petite taille, nez trop long, grandes oreilles, visage disgracieux, mains moites…
"Les beaux sont jugés plus intelligents, plus ambitieux, plus chaleureux, plus sociables, plus équilibrés et moins agressifs", assure encore le sociologue. Ainsi, de nombreux spécialistes du recrutement estiment, consciemment ou pas, qu’une personnalité équilibrée se voit. Pire, les études prouvent qu’à diplôme équivalent un candidat au physique peu avenant sera recruté à un salaire moindre. Une situation qui n’ira pas en se résorbant : une étude anglaise, conduite sur onze mille salariés britanniques (Beauty, Statute and the Labour Market de B. Harper, 2000), prouve que si les plus beaux gagnent un peu plus que la moyenne nationale, les plus laids perçoivent des salaires de 11 à 15 % inférieurs.
"La beauté permet non seulement d’échapper au chômage, mais en plus elle se transforme en prime salariale, résume Jean-François Amadieu. La beauté est un capital humain que le marché du travail reconnaît financièrement." Ainsi démontrée, la dictature que nous imposent les apparences, comme la tyrannie médiatique et sociale que nous subissons, nous apparaissent dans ce qu’elles ont de fondamentalement injustes. "Bien sûr, nous préférerions que ce soient les mérites de chacun qui déterminent l’obtention des diplômes, l’accès aux emplois, etc., plutôt qu’un critère arbitraire et primitif, admet Jean-François Amadieu. Mais c’est en disant la vérité sur cette discrimination qu’on peut élaborer des stratégies visant à limiter, sinon contrer, l’emprise des apparences. Bien connue et bien utilisée par tous, elle peut aussi permettre de bousculer l’ordre imposé."
Des chercheurs américains (Physical Attractivities and Evaluation of Children’s Transgressions de K. K. Dion, 1972) ont demandé à des adultes de juger des enfants de 7 ans accusés d’avoir blessé un camarade avec une boule de neige. Dans un premier temps, les personnes interrogées se sont montrées beaucoup plus tolérantes envers les enfants les plus beaux : la faute était jugée plus légèrement lorsque le fautif était séduisant. Dans un second temps, elles se sont dit convaincues que les enfants beaux récidiveraient moins que les autres. Commentaires du sociologue Jean-François Amadieu : "Non seulement le “laid” est jugé plus responsable de sa faute que le “beau”, mais, de surcroît, cette faute apparaissant comme inscrite dans sa nature profonde, elle est susceptible d’être répétée."

Auteur: Gelly Violaine

Info:

[ inégalités ] [ injustice ] [ allure ]

 

Commentaires: 0

chaînon manquant

L'HUMANITÉ AURAIT ELLE FRÔLÉ L'EXTINCTION ?

"1 280 individus seulement : l'humanité a failli disparaître il y a près d'un million d'années

Une étude parue dans Science révèle que population humaine pourrait s'être maintenue à environ 1 300 individus pendant une centaine de milliers d'années. Une "presque extinction" qui pourrait avoir joué un rôle majeur dans l'évolution des hommes modernes et de parents disparus, les Néandertaliens et Dénisoviens.

Il y a près d’un million d’années, un événement dévastateur a presque anéanti nos ancêtres. Les données génomiques de 3 154 humains modernes suggèrent qu'à ce moment, la population aurait été réduite d’environ 100 000 à seulement 1 280 individus reproducteurs — soit un déclin démographique d'ampleur (98,7 %) sur une durée de 117 000 ans, qui aurait pu conduire l’humanité à l’extinction.

Le fait que vous puissiez lire cet article, et que la population mondiale atteigne aujourd'hui les plus de 8 milliards (chiffres de novembre 2022), montre bien que cela n'a pas été le cas. Mais les résultats de cette récente étude, publiée dans la revue Science le 31 août 2023, permettraient d'expliquer l'écart déjà observé entre les archives fossiles humaines d'Afrique et d'Eurasie durant le Pléistocène.

La génétique pour comprendre l'évolution de la lignée humaine

Les datations récentes situent les plus anciens Homo sapiens il y a environ 300 000 ans, en Afrique. Seulement, avec si peu de fossiles datant de cette époque parvenus jusqu'à nous, la manière dont la lignée humaine a évolué avant l'émergence de l'espèce reste plutôt incertaine.

Pour en savoir plus sur cette très secrète période, proche de l’évolution de l’Homme moderne, une équipe a étudié le génome de plus de 3 150 humains actuels. Des individus issus de dix populations africaines et de quarante populations non africaines, plus précisément.

Elle a pour cela développé un nouvel outil analytique, le "processus de coalescence rapide en temps infinitésimal" (FitCoal). Grossièrement, le FitCoal leur a permis, en examinant la diversité des séquences génétiques observées chez les descendants et comment elles ont divergé au fil du temps, de déduire la taille des groupes composant leurs lointains ancêtres.

Leurs résultats ont ainsi révélé un "goulot d'étranglement démographique" important il y a environ 930 000 à 813 000 ans, c'est-à-dire un épisode de réduction sévère de la population — suivi d'une nouvelle expansion démographique, d'où les termes de "goulot d'étranglement".

Un risque élevé d'extinction lié aux changements climatiques ?

Dans l'étude de l'évolution d'une espèce, les goulots d'étranglement démographiques liés à une guerre, une famine ou encore une crise climatique, ne sont pas rares. La baisse de la diversité génétique qui en résulte peut même être retracée jusqu’à la descendance des survivants.

C’est ainsi que les scientifiques ont pu en déduire qu'un tel phénomène s'est produit plus récemment, il y a environ 7 000 ans, dans la population humaine de l’hémisphère nord.

Toutefois, le cas du goulot d'étranglement bien plus ancien semble avoir été d'une gravité particulièrement exceptionnelle, puisque le groupe a alors perdu 65,85 % de sa diversité génétique et environ 98,7 % de sa population reproductrice, selon les données. Pendant plus ou moins 117 000 ans, cette dernière aurait été limitée à environ 1 280 individus.

Nos ancêtres ont connu un goulot d'étranglement démographique si grave pendant très longtemps qu'ils ont été confrontés à un risque élevé d'extinction. — Wangjie Hu, coauteur principal de l'étude de l'École de médecine du Mont Sinaï à New York (États-Unis) interrogé par LiveScience.

S'il est aujourd'hui difficile d'établir avec certitude les différents facteurs qui ont mené à ce goulot d'étranglement, un événement majeur semble coïncider dans les datations : la transition du milieu du Pléistocène (il y a entre 1,25 et 0,7 million d’années), où la Terre s'est vue sévèrement refroidie en raison de l'allongement des cycles glaciaires et interglaciaires.

Les glaciers ont émergé, les températures des océans ont diminué… et de longues sécheresses ont touché l'Afrique et en Eurasie. Pour les populations humaines luttant alors pour leur survie, ces conditions plus que défavorables auraient pu entraîner famines et conflits. La disparition d'autres espèces, sources de nourritures, pourrait aussi avoir contribué à leur déclin.

Encore une fois, les conséquences de ces bouleversements climatiques ne peuvent être constatées, tant les fossiles et les artefacts humains de cette période sont relativement rares. Peut-être, parce que la population était si faible durant cette fameuse période.

Cette donnée permet en tout cas d'enfin expliquer chronologiquement "l'écart entre les archives fossiles africaines et eurasiennes [...] au début de l'âge de pierre". "[Cet écart] coïncide avec la période proposée de perte significative de preuves fossiles", explique en effet l'anthropologue Giorgio Manzi de l'université Sapienza de Rome (Italie), coauteur principal de l'étude dans un communiqué.

Un changement de génome et une divergence des hominidés

Ce goulot d'étranglement pourrait aussi avoir contribué à une caractéristique du génome humain : la fusion de deux chromosomes en un seul, le chromosome 2. Les autres hominidés encore vivants, dont les grands singes, en possèdent en effet 24 paires, nous, 23. Cet événement de spéciation semble d'ailleurs avoir contribué à ce que les humains prennent une voie évolutive différente. Expliquons.

Des recherches ont déjà suggéré que le dernier ancêtre commun, partagé par les Hommes modernes (Homo Sapiens), les Néandertaliens (Homo neanderthalensis) et les Dénisoviens (Homo denisovensis), vivait il y a environ 765 000 à 550 000 ans… soit à peu en même temps que le phénomène décrit.

Si dernier ancêtre commun a vécu pendant ou peu après le goulot d'étranglement, celui-ci aurait pu jouer un rôle dans la division des groupes d'hominidés, suggèrent les chercheurs : la population pourrait s'être séparée en de petits groupes survivants, qui, au fil du temps, auraient développé des caractéristiques suffisamment importantes pour que les différents groupes deviennent distincts — avec d'une part l'Homme moderne, d'autre part l'Homme de Néandertal et l'Homme de Denisova.

Or, c'est aussi il y a environ 900 000 à 740 000 ans, que les deux chromosomes anciens semblent avoir convergé. Et puisque tout cela coïncide, les nouvelles découvertes suggèrent finalement que la quasi-éradication de l'homme pourrait avoir un lien avec ce changement majeur dans le génome humain.

En outre, "puisque les Néandertaliens et les Dénisoviens partagent cette fusion avec nous, elle a dû se produire avant que nos lignées ne se séparent", suggère à nos confrères Chris Stringer, paléoanthropologue au Musée d'histoire naturelle de Londres (Angleterre) qui n'a pas participé à l'étude.

"Brosser un tableau complet de l'évolution humaine"

Si la lutte pour la survie, il y a environ 930 000 à 813 000 ans, semble avoir joué un rôle dans la formation des chromosomes de l'Homme moderne, l'inverse est-il vrai ?

L'équipe suggère plutôt qu'un climat plus hospitalier il y a environ 813 000 ans, ainsi que la maîtrise du feu, sont des facteurs cruciaux qui pourraient avoir permis à nos ancêtres de rebondir. De plus amples recherches seront nécessaires pour y voir plus clair, ainsi que pour établir si la sélection naturelle qui a eu lieu durant cette période a accéléré l'évolution du cerveau humain.

Ces résultats ne sont qu'un début. — Haipeng Li, généticien théorique des populations et biologiste informatique de l'Académie chinoise des sciences, coauteur principal dans le communiqué.

Les objectifs futurs de ces connaissances visent à brosser un tableau plus complet de l'évolution humaine au cours de cette période de transition entre le Pléistocène précoce et le Pléistocène moyen, ce qui permettra à son tour de continuer à percer le mystère de l'ascendance et de l'évolution de l'homme primitif.

Auteur: Internet

Info: https://www.science.org, 31 aout 2023, trad et résumé Mathilde Ragot

[ paléolithique ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel

parapsychologie

Le pays des aveugles de Koestler (I) 

Ainsi, après plusieurs détours, nous voilà de retour à notre point de départ. Ce "sentiment océanique" mystique se situe certainement à un étage supérieur de cette spirale que celui de l'enfant nouveau-né. L'enfant n'a pas encore d'identité personnelle, le mystique et le medium l'ont eux transcendée. Cette spirale a beaucoup de cercles, mais à chaque tour nous sommes confrontés à la même polarité et au même genre de monade, dont une face dit que je suis le centre du monde, et l'autre que je suis une petite partie en quête de la totalité. Nous pouvons considérer les phénomènes de parapsychologie comme les fruits de cette recherche - qu'ils se soient produits spontanément ou en laboratoire. La perception extra sensorielle apparait alors comme la plus haute manifestation du potentiel d'intégration de la matière vivante - qui, chez les humains, s'accompagne généralement d'un type d'auto-transcendance de l'émotion.

Alors que tout au long de notre excursion dans la biologie et la physique nous étions sur un terrain scientifique solide, nous voilà en pleine étape spéculative. Je ne prétends pas que ce soit un plus. Mais c'est la science moderne elle-même, avec ses vues paradoxales, qui nous y incite. Nous ne nous arrêterons pas à la "classique" télépathie-ESP ni à la prévision à court terme - pour lesquelles des explications physiques peuvent encore être trouvée. Car exclure clairvoyance, psychokinésie et coïncidences de séries ou de synchronicités, serait arbitraire, tout en laissant les choses telles qu'elles étaient avant. D'autre part, si on prend la "Tendance Intégrative" comme un principe universel comprenant des phénomènes causals, l'image devient grandement simplifiée, même si elle est encore hors de portée de notre compréhension. Au lieu de plusieurs mystères, nous voilà aujourd'hui confrontés à une seule tendance évolutive irréductible, issue de la constitution d'ensembles plus complexes venant de pièces diversifiées. La doctrine hippocratique de la "sympathie de toutes choses" en est un paradigme précoce. L'évolution des connaissances, avec ses maillages en branches spécialisées et leur confluence vers un delta unifié, en est un autre.

On pourrait en effet le substituer à la maladresse de termes comme "sérialité" et "Synchronicité" - qui mettent l'accent sur le temps seul, avec pour résultat une non-incarcération grâce à des expressions comme "évènements confluentiels". Les évènements confluentiels seraient-ils causals de manifestations d'une tendance à l'intégration. L'apparition du scarabée de Jung serait alors un évènement confluentiel. Ainsi les effets de la psychokinésie comme le lancer de dés et autres phénomènes paranormaux seraient aussi causals de ces phénomènes. Si on leur prête une signification, c'est qu'ils donnent l'impression d'avoir un lien de causalité, même si ils ne sont manifestement pas de cette sorte de pseudo-causalité. Le scarabée semble être attiré à la fenêtre de Jung par le patient qui raconte son rêve, les dés semblent être manipulés par la volonté de l'expérimentateur, le clairvoyant semble voir les cartes cachées. Les potentiels intégratifs de la vie semblent inclure la capacité de produire des effets pseudo-causals - qui provoquent un évènement confluentiel sans se soucier, pour ainsi dire, de l'emploi d'agents physiques. Il est donc très difficile de tracer une ligne de démarcation nette séparant causalité et non-causalité des évènements. Les animaux aveugles peuvent sentir leur chemin par des usages physiques plus grossiers comme le toucher ou l'odorat. Les chauves-souris utilisent une sorte de radar - ce qui il n'y a pas si longtemps aurait été vu par les naturalistes comme une hypothèse bien saugrenue. Des animaux équipés pour réagir aux photons - particules avec une masse nulle au repos qui peuvent également se comporter comme des ondes dans un milieu et, partant, semblent défier la causalité. Des hommes sans yeux comme les citoyens des pays des aveugles, rejetteraient surement l'affirmation qu'on peut percevoir des objets éloignés sans contact par toucher comme un non-sens occulte - ou bien déclareraient qu'une telle faculté, si elle existe vraiment, est certainement au-delà du domaine de la causalité physique, et devrait être appelé perception extra-sensorielle.

Un des neurophysiologistes les plus respectés de Grande-Bretagne, le Dr W. Walter Grey, a réalisé ces dernières années une série d'expériences remarquables. Il s'est fabriqué une machine électrique, qui par un effort de volonté, peut influer sur les évènements externes sans mouvement ni action manifeste via les impalpables pics électriques du cerveau. Cet effort nécessite un état particulier de concentration, composé paradoxal de détachement et d'excitation. La procédure expérimentale de Grey Walter peut être décrite de manière simplifiée comme suit. Des électrodes fixées sur le cuir chevelu et le cortex frontal du sujet transmettent les vagues électriques des activités cervicales vers un amplificateur d'ondes via une machine. En face de l'objet il y a un bouton : si on le presse une "scène intéressante" apparait sur un écran de télévision. Mais, environ une seconde avant qu'on appuie sur le bouton, une surtension électrique d'une vingtaine de microvolts se produit dans une grande partie du cortex du sujet, on la nomme "vague de préparation". Mais les circuits de l'appareil peuvent être réglés de telle sorte que la "vague de préparation" amplifiée soit suffisante pour déclencher l'interrupteur et faire ainsi apparaitre la scène de télévision une fraction de seconde avant que le sujet ait effectivement appuyé sur le bouton. C'est ce qu'on appelle un "démarrage automatique". Un sujet intelligent se rend vite compte que son action a le résultat escompté avant qu'il n'ait effectivement déplacé son doigt, et donc il cesse généralement d'appuyer sur le bouton: les images apparaissent comme et quand il les veut... Mais, pour que cet effet soit durable, il est essentiel que le sujet "veuille" vraiment que l'évènement se produise, et donc il doit se concentrer sur l'évocation de cet évènement précis. Lorsque l'attention du sujet se détache à cause d'une présentation monotone, ou qu'il "se concentre sur la concentration", le potentiel du cerveau ne parvient pas à déclencher la vague. Ce démarrage automatique peut être combiné avec un auto-stop afin que le sujet puisse acquérir une image en voulant son apparition sur l'écran du téléviseur, puis l'effacer dès qu'il a terminé son inspection de celle-ci.

Du point de vue du sujet, c'est une expérience très particulière, parfois accompagnée de signes d'excitation contenue; une diurèse [évacuation d'urine] a été très marquée pour deux des expérimentateurs. Examinant ces expériences Renee Haynes rédacteur en chef du Journal de la SPR a déclaré: En principe, bien sûr, ce n'est pas plus remarquable que ce qui arrive quand un enfant regarde avec étonnement, quand, avec sa main, il prouve la puissance de sa volonté en décidant de lever le petit doigt ou en le déplaçant. En pratique, c'est étonnant parce que ce mode pour exercer une influence sur le monde extérieur est fort peu familier à l'homme, même s'il est probablement banal pour une anguille électrique. Il est aussi très intéressant en ce qu'il a amené le Dr Grey Walter a utiliser avec un certain embarras, un mot tel que "pouvoir de la volonté". Cela, on s'en souvient, fut aussi l'attitude de Sir John Eccles quand il considérait que l'action de "volonté mentale" du "cerveau physique", comme le mystère de base, et la psychokinésie simplement comme une extension de celui-ci. On pourrait décrire l'expérience Grey Walter comme de la "pseudo-télékinésie" car il y a des fils qui relient les électrodes et crâne du sujet avec l'appareil TV. Mais on pourrait tout aussi bien décrire l'action de l'esprit du sujet sur son propre cerveau comme une pseudo-causalité. Ou nous pourrions dire que le sujet a découvert une façon plus élégante de produire un "évènement confluentiel" sans prendre la peine d'employer des agents physiques. Dans ce contexte il nous faut maintenant parler du rapport hypnotique.

Jusqu'au milieu du siècle dernier, l'hypnose a été traitée comme une fantaisie occulte par la science occidentale (bien que dans d'autres cultures, elle ait été prise comme une acquis). Aujourd'hui elle est devenue si respectable et banale que nous avons tendance à oublier que nous n'avons pas d'explication la concernant. On a démontré qu'un sujet approprié peut être temporairement sourd, muet, aveugle, anesthésié, amené à avoir des hallucinations ou revivre des scènes de son passé. Il peut être amené à oublier ou à se rappeler ce qui s'est passé pendant la transe avec un claquement de doigts. On peut lui enjoindre une suggestion post-hypnotique qui lui fera exécuter le lendemain, à 5 heures précises, une action stupide comme le déliement de ses lacets - et aussi trouver une certaine rationalité à cet acte. Les utilisations de l'hypnose médicale sur des patients appropriés en dentisterie, obstétrique et en dermatologie sont bien connues. Moins connues, cependant, sont les expériences de A. Mason et S. Black sur la suppression des réactions cutanées allergiques par l'hypnose. On injecta à des patients des extraits de pollen, auxquels ils étaient très allergiques, et après le traitement hypnotique, ils cessèrent de montrer la moindre réaction. Avec l'hypnose, d'autres patients n'ont pas eu de réaction allergique contre le bacille de la tuberculose. Comment les suggestions hypnotiques peuvent-elles modifier la réactivité chimique des tissus au niveau microscopique reste donc une conjecture. Après la guérison remarquable de Mason par hypnose d'un garçon de seize ans souffrant d'ichtyose (la maladie de peau de poisson, une affection congénitale que l'on croyait incurable) un évaluateur du British Medical Journal a fait remarquer que ce cas unique suffirait pour exiger "une révision des concepts courants sur la relation entre l'esprit et le corps ". Cette révision des concepts actuels est attendue depuis longtemps. Nous ne savons pas si Eddington avait raison quand il a dit que le monde est fait de matière-esprit, et qu'il n'est certainement pas fait de l'étoffe des petites boules de billards du physicien du dix-neuvième siècle qui volaient dans tous les sens jusqu'à ce que le hasard les fasse s'agréger en une amibe.

Dans son adresse de 1969 à l'American Society for Psychical Research, que j'ai cité précédemment, le professeur Henry Margenau a dit ceci : Un artefact parfois invoqué pour expliquer la précognition est de prendre en compte un temps multidimensionnel. Ce qui permet un véritable passage vers l'arrière du temps, ce qui pourrait permettre à certains intervalles, positifs dans un sens du temps, de devenir négatifs ("effet avant la cause") dans un autre. En principe, ça représente un schéma valable, et je ne connais pas la critique qui pourra l'exclure en tant que démarche scientifique. Si elle est acceptable, cependant, une mesure entièrement nouvelle de l'espace-temps doit être développée. J'ai sondé quelques suggestions que la physique pourrait offrir comme solution à ce genre de problème que vous rencontrez. Les résultats positifs, je le crains, sont maigres et décevants, mais peut-être que cela vaut-il quand même une vraie étude. Mais pourquoi, voudrai-je maintenant demander, est-il nécessaire d'importer vers une nouvelle discipline tous les concepts approuvés d'une ancienne science à son stade actuel de développement? La physique n'adhère pas servilement aux formulations grecques rationalistes qui l'ont précédé, il a bien fallu créer nos propres constructions spécifiques.

Le parapsychologue, je pense ... doit voler de ses propres ailes et probablement de manière plus audacieuse que ce que les conditions que la physique d'aujourd'hui suggèrent - et aussi tolérer sans trop de souci les voix stridentes et critiques des scientifiques "hard-boiled", pragmatiques et satisfaits, et ainsi continuer sa propre recherche minutieuse vers une meilleure compréhension via de nouvelle sortes d'expériences, peut-être aussi avec des concepts qui apparaissent étranges. Nous sommes entourés de phénomènes que l'existence nous fait soigneusement ignorer, ou, s'ils ne peuvent pas être ignorés, nous les rejetons comme des superstitions. L'homme du XIIIe siècle ne se rendait pas compte qu'il était entouré de forces magnétiques. Nous n'avons donc pas la conscience sensorielle directe de beaucoup de manifestations, ni des douches de neutrinos qui nous traversent, ni d'autres "influences" inconnues. Donc, nous pourrions tout aussi bien écouter les conseils de Margenau et créer nos propres constructions "spécifiques", supposant que nous vivons plongés dans une sorte de "psycho-champ magnétique" qui produit des évènements confluentiels... tout ceci par des moyens qui dépassent les concepts classiques de la physique. Des buts et leur conception qui nous sont inconnus certes, mais nous estimons qu'il doivent être en quelque sorte liés à un effort vers une forme supérieure de l'ordre et de l'unité dans toute cette diversité que nous observons au travers de notre appréciation de l'évolution de l'univers dans son ensemble, de la vie sur terre, de la conscience humaine et, enfin, de la science et de l'art.

Un mystère "plus haut d'un cran" est plus facile à accepter qu'une litière de puzzles indépendants. Cela n'explique pas pourquoi le scarabée est apparu à la fenêtre, mais au moins on pourra l'adapter aux évènements confluentiels et autres phénomènes paranormaux d'une conception unifiée. Il ya, cependant, un aspect profondément troublant à ces phénomènes. Les évènements paranormaux sont rares, imprévisible et capricieux. C'est comme nous l'avons vu, la principale raison pour laquelle les sceptiques se sentent en droit de rejeter les résultats des cartes devinées et autres expériences de psychokinésie, en dépit de preuves statistiques qui, dans tout autre domaine de la recherche, suffiraient à prouver cette hypothèse. Une des raisons du caractère erratique de l'ESP a déjà été mentionnée : notre incapacité à contrôler les processus inconscients sous-jacents. Les expériences de Grey Walter n'étaient pas concernées par l'ESP, mais il a bien dû se rendre compte que la "vague de préparation" ne pouvait atteindre le seuil suffisant que si le sujet était dans un état décrit comme "un composé paradoxal de détachement et d'excitation".

Les expériences paranormales spontanées sont toujours liées à un certain type d'auto-transcendance de l'émotion, comme dans les rêves télépathiques ou lors de transe médiumnique. Même dans le laboratoire, où là aussi le rapport affectif entre l'expérimentateur et le sujet est d'une importance décisive. L'intérêt du sujet dans le mystère de l'ESP en lui-même évoque une émotion auto-transcendante. Lorsque que son intérêt baisse à la fin d'une longue séance ESP, il mpntre un déclin caractéristique du nombre de "hits" sur la feuille de score. Cet "effet de déclin" peut être considéré comme une preuve supplémentaire de la réalité de l'ESP. Il y a aussi une diminution globale de la performance de la plupart des sujets après une longue série de séances. Ils s'ennuient. Les compétences les plus normales s'améliorent avec la pratique. Avec l'ESP c'est le contraire.

Un autre argument relatif à la rareté apparente des phénomènes paranormaux a été présentée par le regretté professeur Broad dans un article de philosophie: "Si la cognition paranormale et la causalité sont des faits paranormaux, il est alors fort probable que cela ne se limite pas à ces très rares occasions pendant lesquelles elles se manifestent sporadiquement, ou de façon spectaculaire, ou dans des conditions très particulières pendant lesquelles leur présence peut être expérimentalement établie. Ces phénomènes pourraient très bien être en fonction continue en arrière-plan de nos vies normales. Notre compréhension et nos malentendus avec nos semblables, notre humeur, l'émotionnel général en certaines occasions, les idées qui surgissent soudainement dans nos esprits sans aucune cause évidente introspectable; nos réactions émotionnelles inexplicables immédiates vis à vis de certaines personnes... et ainsi de suite, tout cela pourrait être en partie déterminé par une meilleure connaissance du paranormal et autres influences causales paranormales."

Collègue du professeur Broad à Oxford, le professeur Price a ajouté cette suggestion intéressante en ce qui concerne le caprice apparent des ESP: "Il semble que les impressions reçues par télépathie ont quelques difficultés à franchir un seuil pour se manifester à la conscience. Il semble qu'il y ait une barrière ou un mécanisme répressif qui tende à les exclure de la conscience, une barrière qui est assez difficile à passer, même si on fait usage de toutes sortes d'appareils pour la surmonter. Parfois, en ayant recours aux mécanismes musculaires du corps, ou en les faisant émerger sous forme de parole ou d'écriture automatique. Parfois, ces phénomènes apparaissent sous forme de rêves, parfois d'hallucinations visuelles ou auditives. Et souvent, ils peuvent émerger sous un aspect déformé et symbolique (comme d'autres contenus mentaux inconscients le font). Il est plausible que beaucoup de nos pensées quotidiennes et d'émotions soient télépathes, ou en partie d'origine télépathique, mais elles ne sont pas reconnues comme telles car elles sont trop déformées et mélangées avec d'autres contenus mentaux en franchissant le seuil de la conscience.

Adrian Dobbs, commentant ce passage, a soulevé un point important dans un texte très intéressant et suggestif. Il évoque l'image de l'âme ou du cerveau comme contenants un assemblage de filtres sélectifs, conçus pour couper les signaux indésirables à des fréquences voisines, dont certaines parviendraient sous une forme déformée, exactement comme dans une réception radio ordinaire. La "théorie du filtre", comme on pourrait l'appeler, remonte en fait à Henri Bergson. Elle a été reprise par divers auteurs sur la perception extra-sensorielle. Il s'agit en fait simplement d'une extrapolation de ce que nous savons au sujet de la perception sensorielle ordinaire. Nos principaux organes des sens sont comme des fentes qui admettent seulement une gamme de fréquence très étroite d'ondes électromagnétiques et sonores. Mais même la quantité d'infos qui entrent par ces fentes étroites, c'est déjà trop. La vie serait impossible si nous devions prêter attention aux millions de stimuli qui bombardent nos sens - ce que William James a appelé "l'épanouissement de la multitude du bourdonnement des sensations". Ainsi, le système nerveux, et surtout le cerveau, fonctionnent comme une hiérarchie de filtrages et de classifications de dispositifs qui éliminent une grande partie de nos entrées sensorielles sous forme de " bruits" non pertinents", pour traiter les bonnes informations sous forme gérable avant qu'elles ne soient présentées à la conscience.

Un exemple souvent cité de ce processus de filtrage est le "phénomène cocktail" qui nous permet d'isoler une seule voix dans le bourdonnement général. Par analogie, un mécanisme de filtrage similaire peut être supposé nous protéger de la floraison et de la multitude de bourdonnement des images, des messages, des impressions et des événements confluentiels du "psycho-champ magnétique" qui nous entoure. Comme il s'agit d'un point de grande importance pour essayer de comprendre pourquoi les phénomènes paranormaux se présentent dans ces formes inexplicables et arbitraire, je vais livrer quelques citations plus pertinentes sur ce sujet. Ainsi le psychiatre James S. Hayes, écrivant dans The Scientist, spécule: Je pense depuis longtemps que les questions classiques posées sur la télépathie ("Cela se passe-t'il" et si oui, "comment?") sont moins susceptibles d'être fructueuses que cette question: "Si la télépathie existe, qu'est-ce qui l'empêche de se produire plus ? Comment l'esprit (ou le cerveau) se protègent-ils contre l'afflux potentiel de l'expérience des autres? "

Et Sir Cyril Burt, à nouveau: La conception naturelle qu'a l'homme de l'univers, ou plutôt de la partie étroite à laquelle il a accès, est celle d'un monde d'objets tangibles de taille moyenne, se déplaçant à des vitesses modérées de manière visible en trois dimensions, réagissant à l'impact de forces de contact (le push et pull de simples interactions mécaniques), le tout en conformité avec des lois relativement simples. Jusqu'à tout récemment la conception de l'univers adoptée par le chercheur, son critère de la réalité, était celui de l'Incrédulité de saint Thomas : "ce qui peut être vu ou touché". Pourtant, supputer que sur une telle base que nous pourrions construire une image complète et comprise de l'univers c'est comme supposer que le plan d'une rue de Rome nous dirait ce à quoi la Ville Eternelle ressemblerait.

La nature semble avoir travaillé sur un principe identique. Nos organes des sens et notre cerveau fonctionnent comme une sorte de filtre complexe qui limite et dirige les pouvoirs de clairvoyance de l'esprit, de sorte que dans des conditions normales notre attention soit concentrée seulement sur des objets ou des situations qui sont d'une importance biologique pour la survie de l'organisme et de l'espèce.

En règle générale, il semblerait que l'esprit rejette les idées venant d'un autre esprit comme le corps rejette les greffes provenant d'un autre corps. Burt résume son point de vue, en nous rappelant que la physique contemporaine reconnaît quatre types d'interactions (forte, faible, électromagnétique et gravitationnelle), dont chacune obéit à ses propres lois, et, jusqu'à présent en tout cas, ce modèle a vaincu toutes les tentatives de le réduire à autre chose. Cela étant, il ne peut y avoir aucun antécédent improbable qui nous interdise de postuler un autre système et/ou un autre type d'interaction, en attendant une enquête plus intensive. Un univers psychique composé d'événements ou d'entités liées par des interactions psychiques, obéissant à des lois qui leur sont propres et qui interpénètrent l' univers physique et le chevauchent partiellement, tout comme les diverses interactions déjà découvertes et reconnues se chevauchent les unes les autres. (2e partie)

Auteur: Koestler Arthur

Info: Internet et Roots of coïncidence

[ Holon ] [ corps-esprit ] [ intégratif ] [ spectre continu ] [ dépaysement moteur ]

 

Commentaires: 0

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel