Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5480
Temps de recherche: 0.0388s

évolutionnisme et insularité

L'odyssée sédentaire : Rôle insoupçonné du "migratory drop-off" dans la spéciation aviaire insulaire

Cette synthèse montre que le "délestage migratoire" (migratory drop-off) est un moteur essentiel de la spéciation chez les oiseaux insulaires. Ce phénomène se produit lorsqu'une espèce migratrice cesse de voyager et s'établit de manière sédentaire sur une île, donnant ainsi naissance à une nouvelle population isolée.

L'étude met en évidence au moins 157 cas de spéciation qui découlent de ce processus, démontrant qu'il a un effet plus important sur la richesse en espèces endémiques des îles que la simple dispersion directe. Son rôle est d'autant plus crucial que l'île est géographiquement isolée. Le succès de cette colonisation dépend de facteurs tels que la taille de l'aire de répartition et celle des groupes d'oiseaux.

Ces découvertes, qui lient les événements de vagabondage rares aux processus évolutifs à long terme, ont des implications importantes pour la biogéographie et la conservation, car elles soulignent la vulnérabilité unique des espèces issues de ce mécanisme.



I. Introduction : L'archipel, berceau et tombeau de la biodiversité



Les îles, véritables sentinelles de la géographie mondiale, ne constituent que 5,3 % de la surface terrestre émergée. Pourtant, leur importance dans la dynamique de la biodiversité est manifestement disproportionnée. Elles abritent un patrimoine vivant d'une richesse singulière, accueillant une part considérable des espèces d'oiseaux (environ 19 %), de rongeurs (17 %) et de plantes à fleurs (17 %) de la planète. Cette concentration extraordinaire de vie fait des archipels des laboratoires naturels de l'évolution, où l'isolement et la pression sélective ont engendré une formidable diversité et un taux d'endémisme exceptionnel.  



Cependant, cette richesse est aussi d'une vulnérabilité extrême. Le paradoxe insulaire réside dans le fait que ces mêmes écosystèmes, propices à l'émergence de nouvelles espèces, sont des points chauds de l'extinction. Un examen des registres biogéographiques révèle que les îles ont été le théâtre de 61 % des extinctions d'espèces recensées et qu'elles concentrent 37 % de toutes les espèces animales et végétales aujourd'hui en danger critique d'extinction. Les menaces sont bien documentées et sont principalement imputables à la perte d'habitat et, de manière encore plus critique, à l'introduction d'espèces invasives par l'activité humaine. Ces menaces pèsent lourdement sur des lignées qui, évoluant dans des environnements isolés, n'ont pas développé de défenses face à des prédateurs ou à une concurrence exogènes.  



Face à ce constat, la question des origines de cette biodiversité insulaire, de son processus de formation, revêt une importance capitale pour les efforts de conservation. Si le mécanisme classique de la dispersion directe – l'établissement d'une population sédentaire fondatrice par un individu ou un groupe – a longtemps été considéré comme le principal moteur de la colonisation, des recherches récentes ont mis en lumière un mécanisme alternatif, potentiellement plus significatif : le " migratory drop-off ". Ce rapport se fonde sur une synthèse exhaustive des découvertes clés de l'étude intitulée The importance of migratory drop-off for island colonization in birds, publiée en 2024 par la Royal Society. L'article original étant inaccessible , le présent travail s'appuie sur une reconstitution minutieuse de son contenu à partir des résumés et sur une analyse contextuelle approfondie des phénomènes de migration et de vagabondage qui y sont intrinsèquement liés.  



II. Le concept de "migratory drop-off" et son cadre théorique : Un tournant comportemental en écologie évolutive



Le concept de " migratory drop-off " (littéralement, " délestage migratoire ") se définit comme un changement fondamental de comportement : la perte de la migration saisonnière chez une espèce. Ce processus s'enclenche lorsqu'un oiseau ou un groupe d'oiseaux migrateurs, ayant colonisé une île, renonce à son périple annuel pour s'établir en permanence, donnant ainsi naissance à une population fondatrice sédentaire. Cette sédentarisation, en coupant les liens géographiques entre la nouvelle population insulaire et les populations continentales dont elle est issue, instaure une isolation reproductrice. Or, cette isolation est la condition  sine qua non du processus de spéciation, c'est-à-dire de la formation d'une nouvelle espèce distincte.  



Pour évaluer la portée de ce phénomène, les chercheurs ont mené une revue systématique et rigoureuse de la littérature scientifique. Cette méthodologie a permis de transcender les observations anecdotiques et de compiler un vaste corpus de cas documentés, offrant une vue d'ensemble quantitative de l'impact du " migratory drop-off ". La force de cette approche réside dans sa capacité à démontrer que ce mécanisme n'est pas une simple curiosité évolutive, mais un processus fondamental et récurrent qui a façonné la biodiversité aviaire insulaire à l'échelle planétaire.  



III. Synthèse des découvertes : Un moteur de spéciation plus puissant que la dispersion classique



Les résultats de l'étude de Dufour et al. (2024) apportent une conclusion quantitative majeure qui rebat les cartes de la biogéographie insulaire. L'analyse démontre que le " migratory drop-off " exerce un effet plus significatif sur la richesse en espèces endémiques des îles que la simple dispersion directe, qui correspond à la colonisation par des espèces déjà sédentaires. Cette découverte remet en question la primauté historique accordée à la dispersion directe comme principal mode de colonisation réussie.  



Les chiffres compilés par les auteurs sont éloquents. Ils ont identifié au moins 157 événements de colonisation indépendants qui ont été initiés par des espèces migratrices et qui ont conduit à des événements de spéciation. Ce qui est particulièrement poignant, c'est que sur ce total, 44 cas concernent des espèces aujourd'hui éteintes, un fait qui souligne la fragilité des lignées issues de ce processus.  



Le rapport met également en évidence une relation directe et proportionnelle entre le rôle de la migration dans la colonisation et l'isolement géographique de l'île. Plus une île est éloignée des masses continentales, plus le " migratory drop-off " devient un facteur prépondérant dans la formation de sa faune aviaire endémique.  



Cette corrélation n'est pas fortuite. Les îles les plus isolées sont, par nature, inaccessibles à une dispersion opportuniste par des espèces sédentaires qui ont un rayon d'action limité. Pour qu'une espèce les atteigne, il faut un événement de transport exceptionnel, qui ne peut être le fait que d'une espèce migratrice capable de parcourir de vastes distances. L'établissement sur une île aussi lointaine rend le retour vers la population d'origine quasi impossible, ce qui renforce l'isolement reproductif et, par conséquent, favorise la divergence évolutive. Le chiffre alarmant des espèces éteintes est une mise en garde. Il suggère que le même processus évolutif qui crée une biodiversité unique la rend aussi d'une extrême vulnérabilité face aux perturbations contemporaines. La compréhension de leur genèse est donc essentielle à leur préservation.



Caractéristique analysée                                                       Résultat de l'étude (Dufour et al. 2024)



Nombre total d'événements de spéciation                       Au moins 157 événements identifiés  

liés au migratory drop-off

  

Part des espèces éteintes                                                 44 espèces récemment éteintes sont issues de ce processus  



Comparaison de l'effet sur la richesse endémique        La migration saisonnière a un effet plus significatif que la dispersion directe  



Relation avec l'isolement géographique                          Le rôle de la migration augmente avec l'isolement de l'île  



IV. Facteurs écologiques et biogéographiques du succès de la spéciation : De la "drop-off" à l'endémisme

Au-delà de la simple quantification, l'étude explore les facteurs qui déterminent le succès d'un événement de spéciation par " migratory drop-off ". Les résultats indiquent que la réussite de l'établissement d'une nouvelle lignée évolutive est positivement associée à deux traits écologiques et biogéographiques de l'espèce colonisatrice : la taille de son aire de répartition et la taille de ses groupes (flock sizes).  



Une aire de répartition étendue est souvent le reflet d'une capacité à s'adapter à des environnements variés. Un tel large spectre géographique peut signifier une plus grande variabilité génétique au sein de la population source, ce qui confère à un groupe fondateur, même réduit, un avantage significatif pour prospérer dans un nouvel environnement insulaire et résister à la consanguinité initiale. De manière analogue, la taille des groupes (flock size) est un facteur de réussite crucial. Un plus grand nombre d'individus transportés lors d'un événement de vagabondage (cf. section suivante) augmente la probabilité de former une population fondatrice viable. Une telle cohorte est plus susceptible d'inclure les deux sexes, d'avoir une diversité génétique suffisante, et de posséder un nombre d'individus assez élevé pour surmonter les aléas démographiques et stochastiques qui menacent l'établissement de petites populations. Cela fait écho au concept de "  propagule pressure ", c'est-à-dire la pression exercée par l'afflux d'individus sur la capacité d'une espèce à s'établir dans un nouvel habitat.  



Ces facteurs ne sont pas de simples corrélations. Ils éclairent la transition entre un événement de colonisation aléatoire et l'établissement réussi d'une nouvelle lignée évolutive. L'événement initial est nécessaire, mais la réussite de l'installation dépend de ces traits intrinsèques à l'espèce. Le vagabondage peut être perçu comme l'amorce, et ces facteurs comme la poudre qui rend la spéciation explosive. Ces observations suggèrent que les règles de la biogéographie ne sont pas universelles et doivent prendre en compte les caractéristiques comportementales et démographiques des espèces pour prédire leur potentiel évolutif.



V. Le rôle des événements de vagabondage : Comprendre les origines de la colonisation rare



L'étude des événements de vagabondage des oiseaux migrateurs, en particulier les cas transocéaniques comme ceux des oiseaux nord-américains observés en Europe , offre une explication concrète du " comment " ces espèces migratrices se retrouvent sur des îles lointaines, servant de point de départ physique au " migratory drop-off ". Ces événements, bien que rares, sont le maillon initial de la chaîne de colonisation.



Les conditions météorologiques extrêmes sont un facteur clé. Des vents violents, souvent associés à des systèmes de tempête ou des ouragans, peuvent littéralement " déraciner " des populations migratrices de leur trajectoire habituelle, les poussant sur des milliers de kilomètres au-dessus des océans. La capacité de certains oiseaux à voler dans la direction du vent pour conserver leur énergie est un facteur supplémentaire qui peut transformer une dérive fatale en une odyssée involontaire.  



Un oiseau confronté à des vents contraires a plusieurs options : lutter contre le vent en dépensant une énergie considérable, compenser la dérive pour maintenir son cap, se laisser dériver sans compensation, ou suivre le vent pour se propulser. Ce dernier choix, bien que potentiellement fatal, est celui qui mène à des mouvements transocéaniques et, dans de rares cas, à la colonisation de nouveaux territoires. Cette section est cruciale, car elle fait le lien entre les forces écologiques ponctuelles et un processus macro-évolutif. L'événement de vagabondage est l'étincelle qui allume la divergence génétique et comportementale. L'évolution n'est donc pas toujours un processus lent et graduel ; elle peut être déclenchée par des événements rares et extrêmes.  



VI. Implications pour la biogéographie et la conservation : Une nouvelle perspective sur les espèces endémiques



La mise en lumière du " migratory drop-off " comme un mécanisme fondamental de la diversification aviaire a des implications profondes pour la biogéographie et la conservation.



En biogéographie, ce concept doit désormais être intégré au même titre que l'adaptation ou la spéciation allopatrique. Il appelle à une considération accrue des changements de comportement migratoire dans l'analyse de la distribution des espèces d'oiseaux. La simple cartographie des populations migratrices et sédentaires ne suffit plus ; il faut analyser les vecteurs et les conditions qui favorisent la transition de l'une à l'autre.  



Pour la conservation, la compréhension de ce processus est vitale. Les espèces endémiques qui en sont issues sont des symboles de la résilience et de l'ingéniosité de l'évolution, ayant réussi à s'établir dans un nouvel environnement. Ironiquement, elles sont aussi, de par leur isolement et leurs adaptations spécialisées, les plus vulnérables face aux menaces anthropiques contemporaines, comme l'introduction d'espèces invasives. Les stratégies de conservation doivent tenir compte de cette histoire évolutive unique.  



Enfin, l'étude ouvre de nouvelles perspectives de recherche. Il serait pertinent d'examiner comment la "migratory connectivity " – le lien géographique entre les zones de reproduction et d'hivernage – influence la probabilité d'un " migratory drop-off ". De même, les effets du changement climatique et la multiplication des phénomènes météorologiques extrêmes pourraient-ils modifier la fréquence de ces événements de vagabondage et, par ricochet, la dynamique de la spéciation insulaire?



Conclusion : L'importance d'une perte pour la création d'une nouvelle vie

En définitive, l'étude de Dufour et de ses collaborateurs déplace le prisme de la biogéographie aviaire. Elle démontre avec force que la perte d'un comportement aussi fondamental que la migration n'est pas une simple réversion, mais un moteur de diversification puissant et quantifiable. Le " migratory drop-off " est un mécanisme de spéciation qui s'avère plus efficace que la dispersion directe, notamment pour les archipels les plus reculés.



Les espèces endémiques qui en résultent sont un témoignage vivant de la capacité de l'évolution à créer la vie. Elles sont l'aboutissement d'un voyage accidentel et d'un renoncement comportemental qui, en brisant les liens avec le passé, ouvrent la voie à un avenir évolutif nouveau. Mais, comme le souligne l'état critique de la biodiversité insulaire, ce même processus de création est aussi celui qui génère des lignées extrêmement fragiles face aux menaces contemporaines. Le rapport se termine par un appel à la considération du " migratory drop-off " non plus comme une anomalie, mais comme un processus central de la biogéographie aviaire et un élément clé de la dynamique de la biodiversité mondiale.



 

Auteur: Internet

Info: https://royalsocietypublishing.org/doi/10.1098/rspb.2025.0182 - synthèse de gemini.ai

[ aves ] [ paléoichthyologie ] [ panspermie terrestre ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Dauphins : cerveau, conscience et intelligence

Les scientifiques rassemblés à San Diego, Californie, à l'occasion du Congrès annuel de l'Association Américaine pour l'Avancement de la Science, en ce mois de février 2010, ont conclu que le dauphin était un mammifère aussi évolué et intelligent que l’humain. Pour confirmer leurs assertions, ils se fondent notamment sur le développement phénoménal de son lobe frontal, siège de la pensée consciente et sur sa capacité que partagent seulement les grands singes et les éléphants de se reconnaître dans un miroir.

Ils insistent aussi sur le fait que le dauphin Tursiops Truncatus, (mais que sait-on des autres cétacés, de leur langage, de leurs cultures si riches et si variées?.) dispose du plus gros cerveau du monde, après celui de l’Homme, selon la théorie du coefficient encéphalique. Méfiance : celle-ci ne tient cependant pas compte des circonvolutions du cortex, largement plus nombreuses chez le cachalot ou d'autres cétacés que chez l'Homme. A la seule aune de ce coefficient, le singe Saïmiri nous dépasserait tous !

Par ailleurs, le carburant du cerveau, c’est le glucose, et à ce niveau, Dauphins et Humains partagent un métabolisme quasiment identique. De telles capacités cognitives, selon les scientifiques de San Diego où, rappelons-le, se trouve également le principal centre de dressage des dauphins militaires aux USA – pose un grave problème éthique quant à la détention forcée en delphinarium de ces remarquables cétacés. Ce point a été évoqué.

Notons que la sur-évolution des cétacés, un espèce née trente millions d'années avant JC, alors que nous ne totalisons au compteur que 160.000 ans en tant qu'Homo Sapiens, selon les dernières données de Pascal Picq, ne se situe pas seulement au niveau de la pensée consciente.

I. L’INTELLIGENCE DES DAUPHINS EN QUESTION

A quel niveau, la barre ?

De vigoureux débats ont régulièrement lieu à propos de l’intelligence du dauphin, où se retrouvent et s’opposent globalement trois opinions : Il y a ceux qui mettent la barre très haut. Ils pensent - peut-être à raison – que les dauphins sont dotés de pouvoirs paranormaux, et transcendent de très loin toutes nos possibilités mentales. Par exemple, pour Jim Nollman, la pensée cachalot étant produite par un cerveau cinq fois plus puissant que le nôtre est forcément cinq fois plus complexe et donc inaccessible à notre compréhension.

Sur un mode nettement moins rationnel et plus égoïste, la mouvance New Age tend à considérer les dauphins comme des extraterrestres arrivant de Sirius pour apporter un message au Monde et servir aux progrès des Hommes. C’est de cette mouvance, malheureusement, qu’est issue la mode des Dolphin Assisted Therapy (DAT) et l’on peut donc craindre que ces idéologies ne servent avant tout à favoriser l’expansion de ce marché.

Il y a ceux qui mettent la barre très bas. Et ceux-là très clairement, ont reçu pour mission de justifier les captures pour les delphinariums ou les massacres des baleines. On lira ainsi avec stupéfaction certaines études réductrices qui ramènent le cerveau du cétacé aux dimensions de celui du hérisson ou tendent à prétendre que les baleines ne sont finalement que de gros "bovidés de la mer", stupides, indolentes et presque insensibles. De même, toute la galaxie de chercheurs et vétérinaires vendus à l’industrie du delphinarium déclarera d’une seule voix que l’intelligence du dauphin ne dépasse guère celle du chien.

Et il y a ceux qui tentent de faire la part des choses... Et notamment d’aborder de manière objective une série de d’études scientifiques ou d’observations de terrain convergentes. En regroupant ces recherches, en les collationnant, en les mettant en perspectives, il devient alors très difficile de croire que les cétacés puissent n’être que des "toutous marins"…

Le frein de l’anthropocentrisme

La disqualification systématique des compétences cognitives des cétacés n’est pourtant pas le fait de seuls baleiniers ou des "dolphin trainers". Certains cétologues et associations (Anne Collet, Greenpeace) adoptent cette position, affirment-ils, par souci d’objectivité. En fait, il semble surtout qu’une sorte de terreur sacrée les saisisse devant l’effondrement de l’un des derniers dogmes inexpugnables du canon scientifique : "l’Homme, mesure de toutes choses, image de Dieu sur terre, est seul doté de conscience et de langage".

"En traçant une limite stricte entre l’Homme et la Bête" ajoute Keith Thomas, "le but principal de nos théoriciens modernes était surtout de justifier la chasse, la domestication, l’ingestion de la chair d’un animal mort, la vivisection – qui devint une pratique scientifique courante dès le 19 ème siècle - et l’extermination à large échelle de la vermine et des prédateurs".

On trouve un peu partout – mais surtout dans le monde de l’édition francophone – de pitoyables gesticulations mentales visant à dénigrer, chaque fois que faire se peut, toute contestation de cette vérité première, aussi évidente que la course du soleil autour de la terre. Innombrables sont les études qui nient que la guenon Washoe, le bonobo Kanzi ou le perroquet Alex puissent parlent de vrais langages. Un article récent allait même jusqu’à contester la notion de "conscience de soi" chez l’animal non-humain et le fait que les expériences de reconnaissance face au miroir puissent avoir valeur de preuve en ce domaine.

Bref, pour beaucoup d’humanistes de la vieille école, la prééminence de l’être humain sur le plan de l’intellect est un dogme, une conviction d’ordre affectif presque désespérée, et non pas une certitude scientifique. L’anthropocentrisme qui fonde toute notre vision du monde nous rend, semble-t-il, incapable d’appréhender la possibilité d’une conscience autre, "exotique" selon le mot de H.Jerison, mais parfaitement complète, aboutie et auto-réflexive.

Pourtant, insiste Donald Griffin : "Il n’est pas plus anthropomorphique, au sens strict du terme, de postuler l’existence d’expériences mentales chez d’autres espèces animales, que de comparer leurs structures osseuses, leurs systèmes nerveux ou leurs anticorps avec ceux des humains".

TECHNOLOGIE ET INTELLIGENCE

Cerveau vaste et puissant que celui du dauphin, certes. Mais encore ? Qu’en fait-il ? C’est là l’ultime argument massue de notre dernier carré d’humanistes qui, très expressément, maintient la confusion entre Intelligence et Technologie. Or nous savons – nous ne pouvons plus nier – que d’autres types d’intelligences existent. On se reportera notamment au passionnant ouvrage de Marc Hauser "Wild Minds : what animals really think" (Allen Lane éditions, Penguin Press, London 2000) qui définit en termes clairs la notion "d’outillage mental". Même si de grands paramètres restent communs à la plupart des espèces psychiquement évoluées, dit en substance l’auteur (règle de la conservation des objets, cartes mentales pour s’orienter, capacité de numériser les choses, etc.), à chaque environnement correspond néanmoins une vision du monde, un mode de pensée propre, qui permet à l’individu de survivre au mieux.

Les écureuils sont capables de garder à l’esprit des cartes mentales d’une précision hallucinante, fondée sur des images géométriques. Les baleines chassent avec des rideaux de bulles, dont le réglage demande une grande concentration et une puissance de calcul peu commune. Les orques et les dauphins ne produisent rien, c’est vrai mais ils sont là depuis des millions d’années, ne détruisent pas leur biotope, vivent en belle harmonie, n’abandonnent pas leurs blessés, ne se font pas la guerre entre eux et dominaient tous les océans jusqu’à ce que l’Homme vienne pour les détruire. Toutes vertus généralement qualifiées de "sens moral" et qui révèlent un très haut degré de compréhension du monde.

Il en est de même pour l’être humain : technicien jusqu’au bout des doigts, champion incontesté de la manipulation d’objets et de chaînes de pensées, adepte des lignes droites, de la course et de la vitesse, il vit dans un monde à gravité forte qui le maintient au sol et lui donne de l’environnement une vision bidimensionnelle.

L’imprégnation génétique de nos modes de conscience est forte : nous avons gardé de nos ancêtres la structure sociale fission-fusion mâtinée de monogamie, la protection de nos "frontières" est toujours assurée, comme chez les autres chimpanzés, par des groupes de jeunes mâles familialement associés (frères, cousins puis soldats se battant pour la Mère Patrie), notre goût pour la science, le savoir et les découvertes n’est qu’une forme sublimée de la néophilie presque maladive que partagent tous les grands primates, et notre passion pour les jardins, les parcs, les pelouses bien dégagés et les "beaux paysages" vient de ce que ceux-ci évoquent la savane primitive, dont les grands espaces partiellement arborés nous permettaient autrefois de nous cacher aisément puis de courir sur la proie...

Mais bien sûr, l’homme est incapable de bondir de branche en branche en calculant son saut au plus juste, il est incapable de rassembler un banc de poissons diffus rien qu’en usant de sons, incapable de tuer un buffle à l’affût en ne se servant que de son corps comme arme, etc.

Ce n’est certes pas pour nous un titre de gloire que d’être les plus violents, les plus cruels, les plus astucieux, les plus carnivores, mais surtout les plus habiles et donc les plus polluants de tous les grands hominoïdes ayant jamais vécu sur cette planète, et cela du seul fait que nous n’avons pas su ou pas voulu renoncer à nos outils mentaux primordiaux ni à nos règles primitives.

Au-delà de nos chefs-d’oeuvre intellectuels – dont nous sommes les seuls à percevoir la beauté – et de nos créations architecturales si calamiteuses au niveau de l’environnement, la fureur primitive des chimpanzés est toujours bien en nous, chevillée dans nos moindres gestes et dans tous nos désirs : plus que jamais, le pouvoir et le sexe restent au centre des rêves de tous les mâles de la tribu...

De la Relativité Restreinte d’Einstein à la Bombe d’Hiroshima

Une dernière question se pose souvent à propos de l’intelligence des cétacés : représente-t-elle ou non un enjeu important dans le cadre de leur protection ?

Là encore, certaines associations s’indignent que l’on puisse faire une différence entre la tortue luth, le tamarin doré, le cachalot ou le panda. Toutes ces espèces ne sont-elles pas également menacées et leur situation dramatique ne justifie-t-elle pas une action de conservation d’intensité égale ? Ne sont-elles pas toutes des "animaux" qu’il convient de protéger ? Cette vision spéciste met une fois encore tous les animaux dans le même sac, et le primate humain dans un autre…

Par ailleurs, force est de reconnaître que l’intelligence prodigieuse des cétacés met un autre argument dans la balance : en préservant les dauphins et baleines, nous nous donnons une dernière chance d’entrer en communication avec une autre espèce intelligente. Il est de même pour les éléphants ou les grands singes mais le développement cognitif des cétacés semblent avoir atteint un tel degré que les contacts avec eux pourraient atteindre au niveau de vrais échanges culturels.

Les seuls animaux à disposer d’un outil de communication relativement similaire au nôtre c’est à dire transmis sur un mode syntaxique de nature vocale – sont en effet les cétacés. On pourrait certainement communiquer par certains signes et infra-sons avec les éléphants, par certains gestes-symboles et mimiques avec les chimpanzés libres, mais ces échanges ne fourniraient sans doute que des informations simples, du fait de notre incapacité à nous immerger complètement dans la subtilité de ces comportements non-verbaux. Tout autre serait un dialogue avec des dauphins libres qui sont, comme nous, de grands adeptes du "vocal labeling", de la désignation des choses par des sons, de l’organisation de ces sons en chaînes grammaticalement organisées et de la création de sons nouveaux pour désigner de nouveaux objets.

Cette possibilité, inouïe et jamais advenue dans l’histoire humaine, est pour nous l’un des principaux enjeux de la conservation des "peuples de la mer" véritables nations cétacéennes dont nous ne devinerons sans doute que très lentement les limites du prodigieux univers mental. Une telle révolution risque bien d’amener d’extraordinaires changements dans notre vision du monde.

Il n’est d’ailleurs pas impossible que notre pensée technologique nous rende irrémédiablement aveugle à certaines formes de réalité ou fermé à certains modes de fonctionnement de la conscience. Comme l’affirme Jim Nollman, il se peut en effet que les cachalots soient capables d’opérations mentales inaccessibles à notre compréhension.

Il se peut que leur cerveau prodigieusement développé les rende à même de percevoir, mettons, cinq ou six des onze dimensions fondamentales de l’univers (Lire à ce propos : "L’Univers élégant" de Brian Greene, Robert Laffont éditeur) plutôt que les quatre que nous percevons ? Quel aspect peut avoir l’océan et le ciel sous un regard de cette sorte ?

Si nous ne leur parlons pas, impossible à savoir.

On imagine la piètre idée qu’ont pu se faire les premiers colons anglais de ces yogis immobiles qu’ils découvraient au fond d’une grotte en train de méditer... Se doutaient-ils seulement à quoi ces vieux anachorètes pouvaient passer leur temps ? Avaient-ils la moindre idée du contenu des Upanishads ou des Shiva Sutras, la moindre idée de ce que pouvait signifier le verbe "méditer" pour ces gens et pour cette culture ?

Les baleines bleues, les cachalots, les cétacés les plus secrets des grands fonds (zyphius, mésoplodon) sont-ils, de la même manière, des sages aux pensées insondables nageant aux frontières d’autres réalités… et que nous chassons pour leur viande ?

On se souvient aussi du mépris profond que l’Occident manifestait jusqu’il y a peu aux peuples primitifs. Les Aborigènes d’Australie vivaient nus, n’avaient que peu d’outils et se contentaient de chasser. Stupides ? Eh bien non ! La surprise fut totale lorsque enfin, on pris la peine de pénétrer la complexité inouïe de leurs mythes, de leurs traditions non-écrites et de leur univers mental... notions quasi inaccessible à la compréhension cartésienne d’un homme "civilisé".

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ] [ Umwelt ] [ hiérarchie ] [ sociologie ] [ xénocommunication ] [ fermeture anthropienne ]

 

Commentaires: 0

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques "expanseurs" se synchronisent.

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniseur. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphiques d'expansion, qui sont clairsemés mais également bien connectés.

Les expanseurs graphiques s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d'erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergents vers la réalité qu'elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées, entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulantes cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules. "

En 1975, le médecin japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphique, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s'ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu'elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord dépendant de deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d'équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", at-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d'oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en feraient ce qu'on appelle un modèle homogène), il a trouvé une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor, de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphiques homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en suggérant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourrait éviter la synchronisation globale, même si chaque nœud était lié plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générées aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous démarrez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité  p  . Si  p  vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si  p  est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique ancien, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre les clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce devient seuil minuscule, de sorte que pour des graphiques suffisamment grands, même si  p  est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés .

Le deuxième type de graphe qu'ils ont considéré est appelé graphe  d  -régulier. Dans de tels graphes, chaque nœud a le même nombre d'arêtes,  d  . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu'ils soient clairsemés (n'ayant qu'un petit nombre d'arêtes) sont appelés graphiques d'expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère que si vous construisez cependant un graphe  d'  ajustement et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générerez un graphique d'Erdős-Rényi avec  p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard accompagnait des problèmes inévitables. À moins que  p  ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphiques d'Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendons." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l'équipe a complété le reste de l'argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphique a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L'un des plus grands mystères restants de l'étude mathématique de la synchronisation ne nécessite qu'une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d'oscillateurs se synchronisent , mais que d'autres s'en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu'il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête soient identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et  d  -regular vers d'autres modèles de graphiques aléatoires plus réalistes. En août dernier, ils ont partagé un article, co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphiques géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui exigeaient un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettront également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ] [ radiations adaptatives ] [ pressions de sélection ] [ palier évolutif ] [ équilibres ponctués ] [ syntonisations ]

 

Commentaires: 0

Ajouté à la BD par miguel

énactions grégaires

L'intelligence a évolué au moins deux fois chez les animaux vertébrés

Les circuits neuronaux complexes sont probablement apparus indépendamment chez les oiseaux et les mammifères, ce qui suggère que les vertébrés ont développé leur intelligence à plusieurs reprises.

Les humains ont tendance à mettre leur propre intelligence sur un piédestal. Notre cerveau peut faire des mathématiques, utiliser la logique, explorer des abstractions et penser de manière critique. Mais nous ne pouvons pas revendiquer le monopole de la pensée. Parmi les nombreuses espèces non humaines connues pour leur intelligence, les oiseaux ont démontré à maintes reprises des capacités cognitives avancées. Les corbeaux planifient pour l'avenir, les corbeaux comptent et utilisent des outils , les cacatoès s'ouvrent et pillent des poubelles piégées et des mésanges gardent la trace de dizaines de milliers de graines disséminées dans un paysage. Il est remarquable que les oiseaux accomplissent de telles prouesses avec des cerveaux complètement différents des nôtres : ils sont plus petits et dépourvus des structures hautement organisées que les scientifiques associent à l'intelligence des mammifères.

" Un oiseau avec un cerveau de 10 grammes fait à peu près la même chose qu'un chimpanzé avec un cerveau de 400 grammes ", a déclaré Onur Güntürkün, qui étudie les structures cérébrales à l'Université de la Ruhr à Bochum, en Allemagne. " Comment est-ce possible ? "

Les chercheurs débattent depuis longtemps du lien entre l'intelligence des oiseaux et celle des mammifères. Une hypothèse est que l'intelligence des vertébrés – animaux dotés d'une colonne vertébrale, dont les mammifères et les oiseaux – ait évolué une fois. Dans ce cas, les deux groupes auraient hérité des voies neuronales complexes qui sous-tendent la cognition d'un ancêtre commun : une créature ressemblant à un lézard qui vivait il y a 320 millions d'années, lorsque les continents terrestres étaient comprimés en une seule masse continentale. L'autre hypothèse est que les types de circuits neuronaux qui sous-tendent l'intelligence des vertébrés aient évolué indépendamment chez les oiseaux et les mammifères.

Il est difficile de retracer le chemin emprunté par l'évolution, étant donné que toute trace du cerveau de l'ancêtre a disparu en un éclair géologique. Les biologistes ont donc adopté d'autres approches, comme la comparaison des structures cérébrales des animaux adultes et en développement d'aujourd'hui, pour comprendre comment cette complexité neurobiologique a pu émerger.

Une série d'études publiées dans Science en février 2025 fournit la meilleure preuve à ce jour que les oiseaux et les mammifères n'ont pas hérité d'un ancêtre commun les voies neuronales génératrices de l'intelligence, mais les ont développées indépendamment. Cela suggère que l'intelligence des vertébrés est apparue non pas une fois, mais plusieurs fois. Pourtant, leur complexité neuronale n'a pas évolué dans des directions radicalement différentes : les cerveaux des oiseaux et des mammifères présentent des circuits étonnamment similaires, selon les études.

" C'est une étape importante dans la quête de compréhension et d'intégration des différentes idées sur l'évolution " de l'intelligence des vertébrés, a déclaré Güntürkün, qui n'a pas participé à la nouvelle recherche.

Ces découvertes, qui émergent dans un monde fasciné par les formes d'intelligence artificielle, pourraient nous éclairer sur l'évolution des circuits complexes de notre cerveau. Plus important encore, elles pourraient nous aider à nous éloigner de l'idée que nous sommes les meilleures créatures du monde, a déclaré Niklas Kempynck, un étudiant diplômé de la KU Leuven qui a dirigé l'une des études. " Nous ne sommes pas la solution optimale pour l'intelligence. "

Les oiseaux y sont également arrivés par leurs propres moyens.

Trouble du picage

Pendant la première moitié du XXe siècle, les neuroanatomistes pensaient que les oiseaux n'étaient tout simplement pas si intelligents. Ces créatures sont dépourvues de tout élément ressemblant à un néocortex – la structure externe hautement ordonnée du cerveau des humains et des autres mammifères, où résident le langage, la communication et le raisonnement. Le néocortex est organisé en six couches de neurones, qui reçoivent les informations sensorielles d'autres parties du cerveau, les traitent et les transmettent aux régions qui déterminent notre comportement et nos réactions.

" Pendant longtemps, on a pensé que c'était le centre de la cognition, et que ce type d'anatomie était nécessaire pour développer des capacités cognitives avancées ", a déclaré Bastienne Zaremba , chercheur postdoctoral étudiant l'évolution du cerveau à l'Université de Heidelberg.

Au lieu de couches bien nettes, les oiseaux ont " des boules de neurones non spécifiées sans repères ni distinctions ", a déclaré Fernando García-Moreno, neurobiologiste au Centre basque de neurosciences Achucarro, en Espagne. Ces structures ont poussé les neuroanatomistes, il y a un siècle, à suggérer qu'une grande partie du comportement des oiseaux est réflexive et non motivée par l'apprentissage et la prise de décision. Cela " implique que ce qu'un mammifère peut apprendre facilement, un oiseau ne l'apprendra jamais ", a déclaré Güntürkün.

La pensée conventionnelle a commencé à évoluer dans les années 1960, lorsque Harvey Karten, un jeune neuroanatomiste du Massachusetts Institute of Technology, a cartographié et comparé les circuits cérébraux des mammifères et des pigeons, puis de hiboux, de poulets et d'autres oiseaux. Sa découverte a été une surprise : les régions cérébrales que l'on pensait impliquées uniquement dans les mouvements réflexes étaient constituées de circuits neuronaux – des réseaux de neurones interconnectés – qui ressemblaient à ceux du néocortex des mammifères. Cette région du cerveau des oiseaux, la crête ventriculaire dorsale (DVR), semblait comparable à un néocortex ; elle n'en avait simplement pas l'apparence.

En 1969, Karten a écrit un " article très influent qui a complètement changé le débat dans le domaine ", a déclaré Maria Tosches, qui étudie le développement du cerveau des vertébrés à l'Université Columbia. " Ses travaux étaient véritablement révolutionnaires. " Il a conclu que, les circuits aviaires et mammifères étant similaires, ils étaient hérités d'un ancêtre commun. Cette pensée a dominé le domaine pendant des décennies, a déclaré Güntürkün, ancien postdoctorant au laboratoire de Karten. Elle a " suscité un vif intérêt pour le cerveau des oiseaux ". 

Quelques décennies plus tard, Luis Puelles, anatomiste à l'Université de Murcie en Espagne, est arrivé à la conclusion inverse de celle de Karten. En comparant des embryons à différents stades de développement, il a découvert que le néocortex des mammifères et le DVR aviaire se développaient à partir de zones distinctes du pallium de l'embryon – une région cérébrale commune à tous les vertébrés. Il en a conclu que ces structures avaient dû évoluer indépendamment.

Karten et Puelles " apportaient des réponses radicalement différentes à cette grande question ", a déclaré Tosches. Le débat a duré des décennies. À cette époque, les biologistes ont également commencé à s'intéresser à l'intelligence des oiseaux, en commençant par leurs études sur Alex, un perroquet gris d'Afrique capable de compter et d'identifier des objets. Ils ont alors réalisé à quel point les oiseaux pouvaient être intelligents.

Cependant, selon García-Moreno, aucun des deux groupes ne semblait vouloir résoudre la divergence entre leurs deux théories sur l'évolution des palliums des vertébrés. "Non, ils ont continué à travailler sur leur propre méthode ", a-t-il déclaré. Un camp a continué à comparer les circuits du cerveau des vertébrés adultes ; l'autre s'est concentré sur le développement embryonnaire.

Dans les nouvelles études, a-t-il déclaré, " nous avons essayé de tout rassembler ".

Pareil mais pas pareil

Deux nouvelles études, menées par des équipes de chercheurs indépendantes, se sont appuyées sur le même outil puissant d'identification des types cellulaires : le séquençage d'ARN unicellulaire. Cette technique permet aux chercheurs de comparer les circuits neuronaux, comme l'a fait Karten, non seulement dans le cerveau adulte, mais tout au long du développement embryonnaire, en suivant Puelles. Ils ont ainsi pu identifier le point de départ de la croissance des cellules dans l'embryon et leur évolution finale chez l'animal adulte : un processus développemental révélateur de voies évolutives.

Pour leur étude, García-Moreno et son équipe souhaitaient observer le développement des circuits cérébraux. Grâce au séquençage de l'ARN et à d'autres techniques, ils ont suivi des cellules dans les palliums de poulets, de souris et de geckos à différents stades embryonnaires afin d'horodater la génération et le stade de maturation des différents types de neurones.

Ils ont découvert que les circuits matures se ressemblaient remarquablement chez tous les animaux, comme l'avaient noté Karten et d'autres, mais ils étaient construits différemment, comme l'avait découvert Puelles. Les circuits qui composaient le néocortex des mammifères et le DVR aviaire se sont développés à des moments différents, dans des ordres différents et dans des régions différentes du cerveau.

(Image : 2 schémas comparés explicatif ) 

Parallèlement, García-Moreno collaborait avec Zaremba et ses collègues de l'Université de Heidelberg. Grâce au séquençage de l'ARN, ils ont créé " l'atlas le plus complet du pallium* aviaire dont nous disposons ", a déclaré Tosches, auteur d' un article de perspective connexe publié dans Science. En comparant le pallium des oiseaux à ceux des lézards et des souris, ils ont également découvert que le néocortex et le DVR étaient dotés de circuits similaires — cependant, les neurones qui composaient ces circuits neuronaux étaient distincts.

" La manière dont nous avons obtenu des circuits similaires était plus flexible que je ne l'aurais imaginé ", a déclaré Zaremba. " On peut construire les mêmes circuits à partir de différents types de cellules. "

Zaremba et son équipe ont également découvert que, dans le pallium des oiseaux, des neurones qui débutent leur développement dans différentes régions peuvent se développer en neurones du même type à l'âge adulte. Cela contredit les théories précédentes, selon lesquelles des régions distinctes de l'embryon doivent générer différents types de neurones.

Chez les mammifères, le développement cérébral suit un cheminement intuitif : les cellules de l’amygdale embryonnaire, au début du développement, se retrouvent dans l’amygdale adulte. Les cellules du cortex embryonnaire se retrouvent dans le cortex adulte. Mais chez les oiseaux, " on observe une réorganisation extraordinaire du cerveau antérieur ", explique Güntürkün, " qui est totalement inattendue ".

Prises ensemble, ces études apportent la preuve la plus claire à ce jour que les oiseaux et les mammifères ont développé indépendamment des régions cérébrales responsables de la cognition complexe. Elles font également écho à des recherches antérieures du laboratoire de Tosches , qui ont montré que le néocortex des mammifères avait évolué indépendamment du DVR des reptiles.

Il semble néanmoins probable qu'il y ait eu une certaine hérédité à partir d'un ancêtre commun. Dans une troisième étude utilisant l'apprentissage profond, Kempynck et son coauteur Nikolai Hecker ont découvert que les souris, les poulets et les humains partagent certains segments d'ADN qui influencent le développement du néocortex ou du DVR, suggérant que des outils génétiques similaires sont à l'œuvre chez les deux types d'animaux. Comme l'avaient suggéré des études précédentes, les groupes de recherche ont découvert que les neurones inhibiteurs, ou ceux qui inhibent et modulent les signaux neuronaux, étaient conservés chez les oiseaux et les mammifères.

Les résultats n'ont cependant pas complètement résolu le débat entre Karten et Puelles. Quelles idées étaient les plus proches de la vérité ? Tosches a affirmé que Puelles avait raison, tandis que Güntürkün estimait que les résultats reflétaient mieux les idées de Karten, même s'ils plairaient en partie à Puelles. García-Moreno a partagé la question : " Tous deux avaient raison ; aucun n'avait tort ", a-t-il déclaré.

Comment développer l'intelligence

L'intelligence n'est pas accompagnée d'un mode d'emploi. Elle est difficile à définir, il n'existe pas de méthode idéale pour y parvenir et sa conception n'est pas optimale, a déclaré Tosches. Des innovations peuvent survenir tout au long de la biologie d'un animal, qu'il s'agisse de nouveaux gènes et de leur régulation, ou de nouveaux types de neurones, circuits et régions cérébrales. Mais des innovations similaires peuvent évoluer plusieurs fois indépendamment – ​​un phénomène appelé évolution convergente – et ce phénomène est observé tout au long de la vie.

" L’une des raisons pour lesquelles j’aime ces articles, c’est qu’ils mettent vraiment en évidence de nombreuses différences ", a déclaré Bradley Colquitt, neuroscientifique moléculaire à l'Université de Californie à Santa Cruz. " Cela permet de se demander : quelles sont les différentes solutions neuronales que ces organismes ont imaginées pour résoudre des problèmes similaires, comme vivre dans un monde complexe et s'adapter à un environnement terrestre en rapide évolution ? "

Les pieuvres et les calmars, indépendamment des mammifères et de leur propre
intelligence corporelle, ont développé des yeux semblables à des caméras. Les oiseaux, les chauves-souris et les insectes ont tous pris leur envol par leurs propres moyens. Les peuples anciens d'Égypte et d'Amérique du Sud ont construit indépendamment des pyramides – la forme structurelle la plus efficace et qui résistera à l'épreuve du temps, a déclaré García-Moreno : " Si on construit une tour, elle s'effondrera. Si on construit un mur, ça ne marchera pas. "

De même, " il existe un degré de liberté limité permettant de générer un cerveau intelligent, du moins chez les vertébrés ", a déclaré Tosches. En revanche, si l'on s'éloigne du monde des vertébrés, on peut générer un cerveau intelligent de manières bien plus étranges, du moins de notre point de vue. " C'est le Far West ", a-t-elle déclaré. Les pieuvres, par exemple, " ont développé leur intelligence de manière totalement indépendante ". Leurs structures cognitives ne ressemblent en rien aux nôtres, si ce n'est qu'elles sont constituées du même type cellulaire : le neurone. Pourtant, on a pu observer des pieuvres accomplir des prouesses incroyables, comme s'échapper d'aquariums, résoudre des énigmes, dévisser des couvercles de bocaux et porter des coquillages comme boucliers.

Il serait passionnant de comprendre comment les pieuvres ont développé leur intelligence grâce à des structures neuronales très divergentes, a déclaré Colquitt. Ainsi, il pourrait être possible d'identifier les contraintes absolues pesant sur l'évolution de l'intelligence chez toutes les espèces animales, et pas seulement chez les vertébrés.

De telles découvertes pourraient à terme révéler des caractéristiques communes à diverses intelligences, a déclaré Zaremba. Quels sont les éléments constitutifs d'un cerveau capable de penser de manière critique, d'utiliser des outils ou de former des idées abstraites ? Cette compréhension pourrait contribuer à la recherche d'une intelligence extraterrestre et à l'amélioration de notre intelligence artificielle. Par exemple, notre façon actuelle d'envisager l'utilisation des connaissances issues de l'évolution pour améliorer l'IA est très anthropocentrique. " Je serais vraiment curieux de voir si nous pouvons construire une intelligence artificielle similaire à celle des oiseaux ", a déclaré Kempynck." Comment pense un oiseau ? Pouvons-nous l'imiter ? "






 

Auteur: Internet

Info: https://www.quantamagazine.org/, Yasemin Saplakoglu, 7 avril 2025. * fait ici référence aux couches de matière grise et blanche qui recouvrent la surface supérieure du cerveau chez les vertébrés

[ homme-animal ] [ intellection multiscalaire ] [ contraintes évolutives partagées ] [ phénétique ] [ individuel - collectif ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

étapes évolutives

Les poussées soudaines qui forgent les arbres évolutifs

Un modèle évolutif mis à jour montre que les systèmes vivants évoluent selon une dynamique de division et d’accélération, où de nouvelles lignées apparaissent par à-coups soudains plutôt que lors d’un long marathon de changements progressifs.

Au cours du dernier demi-milliard d'années, les calmars, les pieuvres et leurs congénères ont évolué comme un feu d'artifice, avec de longues pauses d'anticipation entrecoupées de changements intenses et explosifs. La diversité multi-bras des céphalopodes est le résultat d'un processus évolutif qui a suivi la division des lignées en nouvelles espèces, et leur évolution n'a guère résulté d'une lente accumulation de changements progressifs.

Ils ne sont pas seuls. Des accélérations soudaines surgissent des branches des arbres évolutifs, à de nombreuses échelles du vivant – apparemment partout où existe un système ramifié de modifications héréditaires – dans une dynamique non étudiée dans les modèles évolutionnaires traditionnels.

C'est la perspective qui émerge d'un nouveau cadre mathématique. Publié dans les Actes de la Royal Society B, ce modèle décrit le rythme de l'évolution. Ce nouveau modèle, qui s'inscrit dans une réflexion sur le rythme de l'évolution menée depuis près de cinquante ans, s'appuie sur le concept d'équilibre ponctué, introduit par les paléontologues Niles Eldredge et Stephen Jay Gould en 1972.

" Les espèces resteraient immobiles dans les archives fossiles pendant des millions d'années, puis tout d'un coup — bang ! — elles se transformeraient en quelque chose d'autre ", a expliqué Mark Pagel., biologiste évolutionniste à l'Université de Reading au Royaume-Uni.

L'équilibre ponctué était initialement une proposition controversée. Cette théorie s'écartait de la vision dominante, vieille d'un siècle, selon laquelle l'évolution suivait un rythme lent et régulier, typique du gradualisme darwinien, où les espèces se développaient progressivement et presque imperceptiblement en de nouvelles. Elle ouvrait la possibilité déroutante d'une discontinuité entre les processus de sélection à l'origine des changements microévolutifs au sein d'une population et ceux qui sont à l'origine des changements à long terme et à grande échelle qui se produisent au-delà du niveau spécifique, appelés macroévolution.

Au cours des décennies qui ont suivi, les chercheurs ont continué à débattre de ces points de vue à mesure qu'ils ont rassemblé davantage de données : les paléontologues ont accumulé des ensembles de données fossiles retraçant les changements macroévolutifs dans les lignées anciennes, tandis que les biologistes moléculaires ont reconstruit la microévolution sur une échelle de temps plus comprimée - dans l'ADN et les protéines qu'ils codent.

Il existe désormais suffisamment d'ensembles de données pour tester plus en profondeur les théories du changement évolutif. Récemment, une équipe de scientifiques a combiné les connaissances issues de plusieurs modèles évolutifs avec de nouvelles méthodes pour construire un cadre mathématique permettant de mieux saisir les processus évolutifs réels. En appliquant ses outils à une sélection d'ensembles de données évolutives (dont ses propres données issues de recherches sur une ancienne famille de protéines), l'équipe a découvert que les pics évolutifs n'étaient pas seulement fréquents, mais regroupés de manière assez prévisible aux bifurcations de l'arbre évolutif.

Leur modèle a montré que les protéines se déforment plus rapidement en de nouvelles itérations au moment où elles divergent les unes des autres. Les langues humaines se déforment et se reformulent aux bifurcations de leur propre arbre généalogique. Les corps mous des céphalopodes se couvrent de bras et de ventouses à ces mêmes divisions.

Cette nouvelle étude renforce les arguments antérieurs en faveur du phénomène d'équilibre ponctué, a déclaré Pagel, qui n'a pas participé au projet. Cependant, ce comportement évolutif rapide n'est pas un processus unique, distinct de la sélection naturelle, comme l'ont suggéré Eldredge et Gould, mais plutôt le résultat de périodes d'adaptation extrêmement rapides propulsant le changement évolutif.

" C’est vraiment une très belle histoire de philosophie des sciences ", a déclaré Pagel.

Explosions fantômes

Jordan Douglas, biologiste évolutionniste à l'Université nationale australienne de Canberra, est fasciné par les origines du code génétique. Pour comprendre ces premières étapes de l'évolution de la vie, il étudie les aminoacyl-ARNt synthétases (aaRS), une famille d'enzymes essentielles à la construction des protéines. Les enzymes aaRS semblent précéder le dernier ancêtre commun universel de toute vie sur Terre.

" Ces enzymes sont responsables de la création de ce type de logique réflexive que la nature utilise pour se construire, en aidant à traduire l'ARN en protéines qui copient l'ARN, qui construisent plus de protéines, qui copient plus d'ARN ", a déclaré Douglas.

( Photo : Jordan Douglas, vêtu d'un t-shirt noir, est assis à une table dans un café en plein air avec des tables et des plantes en arrière-plan. )

Jordan Douglas, biologiste évolutionniste à l'Université nationale australienne de Canberra, a développé avec ses collègues un nouveau cadre mathématique qui montre le rythme souvent explosif des changements évolutifs.

Douglas administre une base de données en pleine croissancedes structures et séquences aaRS de l'arbre du vivant, que lui et ses collègues utilisent pour reconstituer l'histoire évolutive de cette famille de protéines, longue d'environ 4 milliards d'années. En étudiant ces séquences, il a observé que ces enzymes ont dû évoluer par à-coups très rapides. Bien que ces molécules ne soient pas des espèces à proprement parler, elles ont évolué au fil du temps selon un schéma arborescent bifurquant, à l'image des populations d'organismes, leurs nouvelles formes créant des branches avec des quasi-espèces. Leur schéma arborescent évolutif a rappelé à Douglas et à ses collègues le débat sur l'équilibre ponctué.

L'équipe a exploré un " terrier de lapin ", a déclaré Douglas, pour faire émerger et évaluer toute preuve à l'appui de la théorie d'Eldredge et Gould — des ensembles de données sur tout, de l'évolution de la taille du corps des mammifères au système digestif spécialisé des perroquets d'Australasie pour aspirer le nectar, à la propagation mondiale précoce du virus. À l'origine de la pandémie de Covid-19, ils souhaitaient construire un modèle cohérent de la façon dont les équilibres ponctués se forment dans de nombreuses formes et échelles de vie, y compris et au-delà des enzymes. Ils étaient particulièrement curieux de ces moments insaisissables où une espèce devient deux.

Un élément clé de leur approche a été l'introduction des " pics ", un paramètre de modèle qui mesure l'ampleur du changement à chaque apparition d'une branche. " [Le pic] est une contribution novatrice de cet algorithme, qui n'est généralement pas utilisée en phylogénétique ", a déclaré Douglas.

Selon lui, le paradigme de la phylogénétique (l'étude des relations évolutives) est que les changements se produisent non seulement lentement et progressivement, mais souvent indépendamment une fois qu'une nouvelle espèce forme sa propre branche. L'hypothèse était que lorsqu'une espèce se sépare d'une autre, les deux nouvelles formes évoluent passivement l'une en dehors de l'autre, dérivant seules sur leur trajectoire évolutive, telles deux bouées flottantes en mer. Mais Douglas ne pense pas que l'évolution se déroule toujours ainsi dans la réalité ; il pense qu'il peut y avoir une dynamique de division et de poussée d'adrénaline.

" Lorsqu'un groupe ou une population se divise en deux, c'est souvent comme s'il y avait une force magnétique qui les éloignait immédiatement ", a expliqué Douglas. " Ensuite, ils connaissent une sorte d'évolution lente et indépendante. "

Le nouveau modèle intègre également des ramifications passées invisibles aujourd'hui. Si une lignée se ramifie, mais que cette branche a été coupée il y a des millions d'années lors de son extinction, elle pourrait ne plus apparaître du tout dans les données modernes. Douglas et son équipe ont pris en compte ce qu'ils ont appelé des " explosions fantômes " d'évolution, appelées " souches " dans leur modèle. " Même si la branche a disparu, elle a laissé une empreinte ", a expliqué Douglas.

Cette approche s'appuie sur les connaissances d'autres biologistes évolutionnistes, dont Pagel, qui a co-développé en 2010 une méthode pour expliquer la disparition des branches d'espèces disparues. Le modèle de l'équipe de Douglas est plus général que les approches précédentes, a expliqué Pagel, ce qui permet aux chercheurs de développer des arbres dont le rythme d'évolution varie. " Cette histoire est composée de nombreux petits éléments qui s'assemblent de manière très harmonieuse ", a-t-il ajouté.

Pouvoir explicatif

Une fois que l’équipe a développé son nouveau modèle, elle l’a testé sur plus d’une douzaine d’ensembles de données évolutives dans plusieurs domaines d’études.

Lorsque les chercheurs ont appliqué le modèle à leurs propres recherches sur les enzymes aaRS, ils ont constaté une accumulation de changements rapides autour des branches de l'arbre évolutif. En comparant leur arbre aaRS à d'autres qui supposaient des changements plus progressifs, ils ont constaté que les relations entre les lignées étaient similaires. Cependant, les pics évolutifs du nouveau modèle ont raccourci de 30 % les nouveaux arbres par rapport aux changements progressifs, ce qui suggère que le temps écoulé entre les premiers ancêtres et l'extrémité des branches était plus court, et que les enzymes avaient évolué plus rapidement.

Douglas et ses collègues ont également réanalysé un ensemble de données sur les caractéristiques des céphalopodes, comme l'émergence des tentacules et l'évolution des formes corporelles, à partir de 27 espèces vivantes et de 52 fossiles. Les résultats ont montré ce que les chercheurs décrivent comme une contribution triviale de l'évolution progressive vers la forme physique des céphalopodes sur quelque 500 millions d'années, 99 % de cette évolution se produisant par poussées spectaculaires près de la bifurcation des branches.

Le nouveau modèle mathématique a montré que les poussées évolutives ont conduit à l’émergence de presque tous les traits caractéristiques des céphalopodes, tels que les tentacules.

Cette accélération soudaine lors de la division des lignées – appelée " ramification saltative " par Douglas et ses collègues – ne se limite pas à l'évolution des êtres vivants. Ils ont découvert qu'elle s'applique également aux systèmes créés par les êtres vivants. L'équipe a appliqué son modèle à la série de modifications et de circonvolutions arborescentes dans la famille des langues indo-européennes. En tenant compte des premières poussées d'évolution linguistique, l'équipe a pu estimer le temps d'origine de cette famille en Eurasie.

La leçon à tirer de ces résultats, a déclaré Douglas, est que les équilibres ponctués sont " très répandus, assez généraux " dans de nombreux aspects de l'évolution. " Il est difficile de construire une compréhension solide de l'évolution sans tenir compte de ce processus ", a-t-il ajouté. La ramification saltative pourrait être fondamentale pour l'évolution biologique et culturelle.

L'épreuve du temps

L'étude fusionne les points de vue anciens, et souvent contradictoires, des paléontologues et des biologistes moléculaires sur le rythme de l'évolution. Les paléontologues, qui travaillent principalement avec des données morphologiques à long terme issues de fossiles, rencontrent plus souvent des équilibres ponctués. " Ce que les paléontologues ont beaucoup moins réussi à appréhender, c'est le rétrécissement qui se produit réellement lors de la spéciation ", a déclaré Gene Hunt, paléontologue évolutionniste au Musée national d'histoire naturelle du Smithsonian, qui n'a pas participé à la nouvelle recherche. Les détails entourant l'émergence des espèces sont difficiles à saisir dans les archives fossiles, simplement parce que le processus est très rapide, a-t-il déclaré.

Parallèlement, le phénomène est moins bien défini dans les données génétiques et moléculaires, qui tendent à révéler des différences plus subtiles et progressives à mesure que les espèces divergent. " [Les biologistes moléculaires] ont clairement exprimé l'idée que Gould avait tort ou qu'il ne comprenait pas les données moléculaires ", a déclaré April Wright, phylogénéticien statisticien à l'Université du Sud-Est de la Louisiane, qui n'a pas participé à la nouvelle recherche. " Il est donc vraiment intéressant de voir ce modèle [d'évolution abrupte] mesuré dans les données moléculaires. "

Quelles conditions pourraient modifier le rythme évolutif des arbres ? Après avoir vécu dans un nouvel environnement ou subi de nouvelles pressions évolutives, deux groupes d'organismes peuvent se séparer physiquement et accumuler rapidement des différences. Le même phénomène peut se produire lorsque les humains, leurs cultures ou leurs langues, s'isolent d'un groupe initial plus vaste.

" Peut-être évoluent-ils dans un nouvel environnement. Peut-être adaptent-ils simplement des normes culturelles différentes à mesure qu'ils grandissent en tant que groupe ", a déclaré Wright. " Il serait tout à fait logique que l'on observe cette même signature de changement se concentrer aux nœuds. "

Ces poussées évolutives pourraient également être assimilées à des phénomènes de division ou de spéciation. Pagel décrit les espèces comme étant généralement maintenues dans une sorte de stase temporaire. De temps à autre, cette stabilité est perturbée par des changements environnementaux, et les populations développent rapidement de nouvelles façons de survivre, occupant une niche différente dans leur écosystème.

Le cadre doit être testé plus avant. Un peu plus d'une douzaine d'études ont été utilisées pour évaluer le nouveau modèle, a déclaré Hunt. Mais il existe probablement des centaines d'ensembles de données paléontologiques qui pourraient être analysés par ces nouveaux outils, sans compter d'autres sur l'évolution moléculaire. " Il existe une quantité considérable de données disponibles qui pourraient être utilisées à cette fin ", a-t-il ajouté. On ne sait pas lequel de ces tests pourrait perturber ce nouveau modèle de ramification saltative et le faire évoluer vers son prochain pic évolutif.

Points clés quant à ce cadre mathématique :

- Il vise à dépasser les modèles classiques qui ne considèrent que peu de traits ou peu d'espèces en prenant en compte un grand nombre de traits et d'espèces, donc une très grande dimension du système.

- Le cœur de cette approche mathématique consiste à modéliser les matrices clés gouvernant l'évolution (comme la matrice de pléiotropie des mutations, la matrice Jacobienne de la dynamique évolutive, et la Hessienne de la fonction de fitness) comme des matrices aléatoires avec des propriétés statistiques représentatives des caractéristiques génériques de ces systèmes complexes.

- La théorie des grandes matrices aléatoires permet de révéler des régularités et des prédictions génériques sur la stabilité, la possibilité, la convergence et la diversification évolutive dans ces systèmes d'une très grande complexité.

- Ce cadre mathématique apporte des outils puissants pour étudier la coévolution et la diversification dans des réseaux écologiques complexes, en particulier en évaluant sous quelles conditions la biodiversité peut s'accroître ou au contraire être contrainte.

- Un aspect important concerne l'étude de la stabilité évolutive des équilibres dans ces systèmes, avec des applications possibles aux dynamiques hôtes-parasites et à la théorie classique des systèmes de Lotka-Volterra étendue en haute dimension. 

Ce nouvel outil mathématique représente donc un cadre abstrait et probabiliste, mais qui s'ajuste aux réalités biologiques complexes et permet d'appréhender des questions évolutives et écologiques à une échelle jamais explorée auparavant de façon aussi rigoureuse.


 

Auteur: Internet

Info: Quanta magazine, Jake Buehler 28 août 2025

[ paliers ] [ étages ] [ phases ] [ carrefours stochastiques ] [ croisements bayésiens ] [ filiations moirées ] [ balance instable ] [ différenciations accélérantes ] [ flambées rapides ] [ jaillissants bourgeons ]

 

Commentaires: 0

Ajouté à la BD par miguel

monades intégrées

Renormalisation : quand la physique des particules met l'infini sous le tapis

La renormalisation est une astuce qui permet de s'affranchir des infinis gênants dans les calculs. Elle a sauvé la physique des particules, mais quel est son bien-fondé mathématique ?

(Image : Il n'est pas nécessaire d'analyser des molécules d'eau individuelles pour comprendre le comportement des gouttelettes, ou ces gouttelettes pour étudier une vague. Ce passage d'une échelle à une autre est l'essence même de la renormalisation ) 

À la fin des années 1920, plusieurs médecins, comme Werner Heisenberg, Paul Dirac, Pascual Jordan, Wolfgang Pauli… font disparaître les particules ! À la place, ils préfèrent y voir des ondulations dans un champ, une sorte d'océan dans lequel, en chaque point, la valeur d'une grandeur physique est donnée. Ainsi, une vague dans ce champ est un électron, une autre un photon, et leurs interactions semblent expliquer tous les événements électromagnétiques.

Devenu un des piliers conceptuels de la description physique de l'Univers et l'explication incontournable de nombreux phénomènes, cette théorie quantique des champs n'a qu'un seul problème : elle est adossée à une technique que l'on a longtemps supposée provisoire et regardé avec suspicion, la renormalisation. "Hélas", elle est conservée indispensable pour composer avec les infinis rédhibitoires qui apparaissent dans les calculs. D'où un sentiment inconfortable, même chez ceux qui ont l'élaborée, d'utiliser un outil qui s'apparente à un château de cartes bâties sur un artifice mathématique tordu.

"C'est un procédé douteux", a écrit plus tard Richard Feynman. " Devoir utiliser à de tels tours de passe-passe nous a empêché de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente. "

Une justification de la renormalisation a pourtant été trouvée, des décennies plus tard, et en provenance d'une branche de la physique apparemment sans rapport. Le regard des médecins sur cette « hérésie » a alors changé la façon de la considérer. En effet, des chercheurs étudiant le magnétisme ont découvert que le processus ne concernait pas du tout les infinis, mais s'apparentait plutôt à une séparation de l'Univers en royaumes de tailles indépendantes, et cette nouvelle vision guide aujourd'hui de nombreux domaines. . . du physique. Quoi qu'il en soit, la renormalisation est, de l'avis de David Tong, théoricien à l'université de Cambridge, " sans doute l'avancée la plus importante de ces cinquante dernières années en physique théorique ".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les plus abouties de toute la science. L'une d'elles, la théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis des prédictions théoriques qui s'accordent aux résultats expérimentaux avec une précision de 1 partie sur 1 milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs conduisait souvent à des réponses absurdes mettant en jeu l'infini, au point que des théoriciens ont envisagé que les théories des champs soient une impasse.

Richard Feynman et d'autres, notamment Freeman Dyson, ont donc cherché de nouvelles voies. Certaines pourraient-être remis les particules sur le devant de la scène, mais, à la place, elles ont abouti à un tour de magie. Ils ont découvert que les équations de la QED conduisaient à des prédictions acceptables, à condition d'être corrigées par cette procédure impénétrable qu'est la renormalisation. En première approximation, la recette est la suivante : lorsqu'un calcul de QED conduit à une série divergente, on abrège celle-ci en intégrant la partie qui tend à s'envoler vers l'infini dans un coefficient (un nombre fixe) placé devant la somme. Puis on remplace ce coefficient par une mesure finie issue d'expérimentations, et l'on peut ensuite laisser la série désormais apprivoisée repartir vers l'infini.

"Ce ne sont tout simplement pas des mathématiques raisonnables". Paul Dirac

Certains ont vu dans ce procédé un jeu de dupes, à commencer par Paul Dirac, pionnier de la théorie des champs, qui déplorait : " Ce ne sont tout simplement pas des mathématiques raisonnables. "

Le cœur du problème – et un germe de sa solution éventuelle – se trouve dans la façon dont les médecins ont traité la charge de l'électron. Dans le mécanisme décrit, la charge électrique naît du fameux coefficient qui « avale l'infini » pendant la tambouille mathématique. Pour les théoriciens qui s'interrogent sur la signification physique de la renormalisation, la QED laisse supposer que l'électron a deux charges : une charge théorique, qui est infinie, et la charge mesurée, qui ne l'est pas. Peut-être que le cœur de l'électron contient une charge infinie, mais elle serait masquée dans la pratique par les effets du champ quantique (que l'on peut se représenter ici comme un nuage virtuel de particules positives) : en fin de compte , les expérimentateurs ne mesurent qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, ont pris à bras-le-corps cette idée en 1954. Ils ont relié les deux charges de l'électron à une charge « effective » qui varie selon la distance. Plus on se rapproche (et plus on pénètre le " manteau positif " de l'électron), plus la charge est importante. Leurs travaux ont été les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les médecins quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est " la version mathématique d'un microscope ", explique Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour rechercher des théories de la gravité quantique. " Et, inversement, on peut commencer par le système microscopique et faire un zoom arrière. C'est l'association du microscope et du télescope. "

Les aimants du pont neuf

Un deuxième indice, après la piste de l'échelle, est venu du monde de la matière condensée, où les physiciens se demandaient comment l'approximation rudimentaire d'un aimant – le modèle d'Ising – parvenir à saisir les moindres détails de certaines transformations. Ce modèle n'est guère plus qu'une grille dans laquelle chaque case est dotée d'une flèche, représentant le moment magnétique d'un atome, qui pointe soit vers le haut soit vers le bas. Et pourtant, il prédit le comportement des aimants réels avec une précision remarquable.

À basse température, la plupart des moments magnétiques des atomes s'alignent (toutes les flèches de la grille pointent dans la même direction) et le matériau est donc magnétique. À l'inverse, à haute température, le désordre domine, et l'aimantation disparaît. Entre ces deux extrêmes, se niche un point de transition critique caractérisé par la coexistence d'îlots d'atomes alignés de toutes tailles. Le point essentiel est que la façon dont certaines quantités varient autour de ce " point critique " semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes qui n'ont aucun rapport, tels que la transition. . à haute pression, où l'eau liquide devient indiscernable de la vapeur d'eau.

La mise au jour de ce phénomène ubiquitaire, que les théoriciens ont donc appelé « universalité », était aussi bizarre qu'une improbable découverte révélant que les éléphants et les aigrettes se déplaçaient exactement à la même vitesse maximale.

La renormalisation capture la tendance de la nature à se distribuer en mondes essentiellement indépendants.

Les médecins n'ont pas l'habitude de s'occuper d'objets de tailles différentes en même temps. Mais le comportement universel autour des points critiques les a obligés à tenir compte de toutes les échelles de longueur à la fois. Leo Kadanoff, spécialiste de la matière condensée, a trouvé comment y parvenir en 1966 en mettant au point une technique dite " par blocs de spins ". Elle consiste à diviser une grille d'Ising trop complexe pour être abordée de front en blocs plus petits et à déterminer pour chacun d'eux l'orientation moyenne, en l'occurrence celle de la majorité des flèches qu'ils contiennent. Tout le bloc prend alors cette valeur (haut ou bas), et l'on répète le processus. Ce faisant, les détails du réseau sont lissés, comme si un zoom arrière révélait le comportement global du système.

Enfin, Kenneth Wilson, un ancien étudiant de Murray Gell-Mann qui avait un pied dans le monde de la physique des particules et un autre dans celui de la matière condensée, à l'unité des idées de son mentor et de Francis Low à celles de Léo Kadanoff. Son " groupe de renormalisation ", qu'il a décrit pour la première fois en 1971, a justifié les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valorisé à Kenneth Wilson le prix Nobel de physique en 1982… et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de s'imaginer le groupe de renormalisation de Wilson est de le voir comme une " théorie des théories " reposant sur le microscopique au macroscopique. Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation dépendante de l'orientation des flèches dans deux cas voisins. Mais extrapoler cette formule simple à des milliards de particules est impossible, parce que vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Kenneth Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. Vous entreprenez par une théorie adaptée à de petites pièces, par exemple les atomes d'une bille de billard, puis vous actionnez la "moulinette mathématique" de Kenneth Wilson afin d'obtenir une théorie, cette fois pertinente pour des groupes de ces pièces, par exemple les molécules de la bille. En réitérant l'opération, vous serez finalement en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une bille entière.

C'est la magie du groupe de renormalisation : il met en évidence les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton plutôt que de l'enchevêtrement des quarks qui le constituent.

Le groupe de renormalisation de Kenneth Wilson a également suggéré que les malheurs de Richard Feynman et de ses contemporains ont fait qu'ils essayaient de comprendre l'électron d'un point de vue infiniment proche. De fait, « nous ne nous attendons pas à ce que [les théories] soient valables jusqu'à des échelles [de distance] arbitrairement petites », concède James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. . . Les médecins comprennent aujourd'hui que couper mathématiquement les sommes et disperser l'infini est la bonne façon de faire un calcul lorsque votre théorie a une taille de grille minimale intégrée. C'est comme si, explique James Fraser, " la coupure absorbait notre ignorance de ce qui se passe aux niveaux inférieurs " pour lesquels on ne dispose d'aucune information, d'aucune grille.

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement rien dire de la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les médecins appellent des théories « efficaces », qui fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies est de découvrir ce qui se passe exactement quand on réduit ces distances.

Du grand au petit

Aujourd'hui, le "procédé douteux" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses rouages ​​​​révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Au cours de la renormalisation, les couches submicroscopiques complexes à prendre en compte ont tendance à disparaître : elles existent bel et bien, mais elles n'ont pas d'incidence sur le tableau d'ensemble. « La simplicité est une vertu », résume Paul Fendley.

Les fondements de la renormalisation illustrent la tendance de la nature à se répartir en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent superbement les molécules individuelles de l'acier. Les chimistes font de même avec les quarks et les gluons quand ils analysent les liaisons moléculaires. La séparation des phénomènes en fonction de leur échelle, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer du grand au petit au fil des siècles, plutôt que de s'attaquer simultanément à toutes les échelles.

Cependant, l'hostilité de la renormalisation à l'égard des détails microscopiques va à la rencontre des efforts des médecins modernes, dans leur quête de comprendre le toujours plus petit. La séparation des échelles suggère qu'ils devront creuser en profondeur pour vaincre le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

« La renormalisation nous aide à simplifier le problème », explique Nathan Seiberg, médecin théoricien à l'Institut d'études avancées, à Princeton, aux États-Unis. Mais " elle cache aussi ce qui se passe à plus courte distance. On ne peut pas avoir le beurre et l'argent du beurre… " 



 

Auteur: Internet

Info: Pour la science, dossier 125, Charlie Wood, 9 octobre 2024, cet article est une traduction de " Comment le 'hocus-pocus' mathématique a sauvé la physique des particules "

[ théorie du tout ] [ autopoïèses cosmiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

" L’IA ne se heurte pas à un mur. Mais les LLMs si " : Gary Marcus à propos de la dernière recherche d’Apple

Les capacités de raisonnement des modèles actuels peuvent s’effondrer complètement au-delà d’un certain niveau de difficulté. Ces modèles semblent " abandonner " l’effort de raisonnement quand la tâche devient trop dure — même s’ils disposent des ressources nécessaires.

- Un article publié ce week-end par Apple parle d'une quantification des capacités de raisonnement des LLMs qui semblent s’effondrer au-delà d’un certain niveau de complexité des tâchesPlusieurs observateurs parlent d’un coup dur, un mur de complexité auquel se heurte la génération actuelle des grands modèles de langage (LLMs). Qu’en pensez-vous ?

(GM) - Il ne s’agit pas d’un simple coup dur, mais d’une mise au tapis, d’autant que cet article n’est pas un coup isolé. Il fait suite à une autre recherche publiée l’année dernière par plusieurs des mêmes auteurs qui montrait déjà qu’il est impossible de construire des agents fiables sans raisonnement formel et abstrait suffisamment développé.

- Pourriez-vous résumer brièvement l’argument de l’article ?

(GM) - Apple a testé les capacités de " raisonnement " des intelligences artificielles actuelles, telles que ChatGPT, Claude ou DeepSeek. Si tous ces modèles semblent intelligents au premier abord, ils échouent totalement dès que la complexité augmente. La force globale de l’argumentation est indéniable — même s’il y a une faiblesse intéressante dans le nouvel argumentaire, la conclusion est sans appel. 

Aucun des modèles fondés sur des LLMs ne fait preuve d’un raisonnement véritable. Il ne s’agit que de systèmes extrêmement coûteux de reconnaissance de motifs qui s’effondrent dès qu’on les confronte à des situations en dehors de leur zone d’entraînement.

- S’agit-il d’une impasse structurelle des LLMs pour certaines applications ?

(GM) - En effet, toutes les recherches sérieuses montrent désormais que les grands modèles de langage ne raisonnent pas de la même manière que les humains. Ils peuvent " réfléchir davantage " — mais seulement jusqu’à un certain point. 

Au-delà d’un certain seuil, ils abandonnent rapidement, même s’ils disposent encore de ressources de calcul en quantité plus que suffisante.

Même lorsqu’on leur fournit l’algorithme exact à suivre — les règles pour résoudre une tâche complexe —, ces modèles ont tendance à très mal l’exécuter. Cela met en lumière une distinction essentielle : exécuter ne signifie pas comprendre. 

Le problème ne réside pas dans un manque de créativité, mais dans une défaillance logique fondamentale. Les modèles ont tendance à " trop réfléchir " à des problèmes simples et à tester de mauvaises réponses même après avoir trouvé la bonne. Et face à des problèmes plus difficiles, ils réfléchissent moins. Il en résulte un gaspillage de ressources de calcul d’un côté et un abandon prématuré de l’autre.

- Comment cette nouvelle étude — qui prolonge l’analyse critique du paradigme actuel que nous publions déjà en 2023 dans nos pages — s’inscrit-elle, selon vous, dans le débat sur la capacité des LLMs à généraliser à des situations radicalement nouvelles ?

(GM) -  D’une part, cette recherche fait écho et amplifie l’argument sur la distribution d’entraînement que je développe depuis 1998 : les réseaux neuronaux, sous diverses formes, peuvent généraliser à l’intérieur de la distribution de données sur laquelle ils ont été entraînés, mais leurs généralisations ont tendance à s’effondrer en dehors de cette distribution. 

C’était le cœur d’un article que j’avais publié en 1998, dans lequel je critiquais les perceptrons multicouches (multilayer perceptrons) — les ancêtres des modèles de langage actuels — en montrant leurs échecs hors distribution sur des tâches simples de calcul et de prédiction de phrases.

Ce fut également l’axe central de mon premier livre, The Algebraic Mind (2001), qui élargissait cette critique, ainsi que de mon premier article dans Science (1999), où j’ai démontré, à travers une expérience, que des nourrissons de sept mois pouvaient extrapoler d’une manière que les réseaux neuronaux de l’époque étaient incapables de répliquer. C’était aussi la motivation principale de Deep Learning : Critical Appraisal (2018), puis de Deep Learning is Hitting a Wall (2022). J’ai identifié cette limite l’an dernier encore comme la faiblesse la plus importante — et la plus importante à comprendre — des LLMs. 

Cela fait donc un certain temps que je travaille sur ce sujet…

- L’article s’appuie également sur le travail de Subbarao Kambhampati, chercheur en informatique de l’Arizona State University.

(GM) - Oui, et je veux le souligner. Cette recherche ne fait pas simplement écho aux arguments que Rao développe depuis plusieurs années, mais les renforce.

Il s’agit des critiques sur les modèles dits de " raisonnement " et les fameuses "  chaînes de pensée " (CoT) qu’ils produisent qui semblent bien moins solides qu’on ne le prétend.

Pour ceux qui ne sont pas familiers du concept, une " chaîne de pensée " est, grossièrement, ce que le système prétend avoir " raisonné " pour arriver à une réponse, dans les cas où il effectue plusieurs étapes de réflexion. Les " modèles de raisonnement " désignent quant à eux la nouvelle génération de tentatives pour contourner les limites structurelles des LLMs, en les forçant à " raisonner " dans le temps, via une technique appelée inference-time compute (calcul au moment de l’inférence). 

Rao n’a jamais été convaincu par cet argument. 

Il a écrit une série d’articles brillants montrant, entre autres, que les chaînes de pensée générées par les LLMs ne correspondent pas toujours à ce que ces modèles font réellement. Récemment, par exemple, il a observé que nous avons tendance à sur-anthropomorphiser les traces de raisonnement des LLMs, en parlant de " pensée " là où ce terme ne paraît pas adéquat.

Un autre de ses articles récents montre que même lorsque les chaînes de raisonnement semblent correctes, les réponses finales, elles, ne le sont pas forcément.

Rao a d’ailleurs sans doute été le premier à démontrer que l’un de ces " modèles de raisonnement " — en l’occurrence o1 — souffrait du genre de problème que le rapport d’Apple documente aujourd’hui. Je conseille à tout le monde de lire son travail.

- Le papier d’Apple reprend la critique de Rao et la vôtre en se concentrant notamment sur un problème classique assez simple : la tour de Hanoï. De quoi s’agit-il ?

(GM) -  Il s’agit d’un jeu classique composé de trois tiges et de plusieurs disques de tailles différentes. L’objectif est de déplacer tous les disques de la tige de gauche vers celle de droite, en respectant une règle essentielle : il est interdit de placer un disque plus grand sur un disque plus petit.

Si vous ne connaissez pas encore ce jeu, il faut un tout petit moment pour comprendre son fonctionnement.

Avec un peu de pratique, un enfant de sept ans intelligent et patient peut y arriver — et pour un ordinateur, c’est un exercice qui ne présente aucune difficulté. N’importe quel étudiant en première année d’informatique devrait être capable de réaliser un programme qui pourrait systématiquement résoudre le jeu.

Or les modèles les plus récents comme Claude peinent déjà à résoudre le problème avec 7 disques — atteignant moins de 80 % de précision — et sont pratiquement incapables de réussir avec 8 disques.

Apple a constaté que même le très apprécié o3-min (high) ne faisait pas mieux et a observé des résultats similaires sur plusieurs autres tâches.

Il est véritablement embarrassant que les LLMs ne parviennent toujours pas à résoudre de façon fiable un problème aussi trivial que la tour de Hanoï. Et ce, alors qu’il existe de nombreuses bibliothèques de code source disponibles gratuitement sur le web !

- Qu’est-ce que cela dit de l’intelligence des LLMs ?

(GM) -  Si l’on ne peut pas utiliser un système d’IA à plusieurs milliards de dollars pour résoudre un problème que Herbert Simon — l’un des véritables " pères fondateurs " de l’IA — a résolu dès 1957 et que des étudiants de première année en intelligence artificielle résolvent sans problème alors la probabilité que des modèles comme Claude ou o3 atteignent un jour l’intelligence artificielle générale (AGI) paraît — au mieux — très éloignée.

L’un des coauteurs de la recherche, Iman Mirzadeh, a attiré mon attention sur la section 4.4 de l’article

Les chercheurs avaient fourni l’algorithme de solution au modèle qui n’avait plus qu’à suivre les étapes pour résoudre le problème. Or même dans ce contexte, ses performances ne s’étaient pas améliorées. Il a commenté ce paradoxe ainsi : " Notre argument n’est donc pas : ‘Les humains n’ont pas de limites, mais les modèles de raisonnement linguistique (LRMs) en ont, donc ils ne sont pas intelligents’. Mais plutôt : ‘ce que l’on observe de leur raisonnement ne ressemble ni à un processus logique, ni à une forme d’intelligence’ ".

- Vous dites avoir remarqué un point critique dans l’article, lequel ?

(GM) - Il s’agit d’une faiblesse qui a été bien exposée par un compte anonyme sur X — ce qui, en général, n’est pas une source réputée pour ses bons arguments… 

Elle est la suivante : les humains ordinaires présentent eux aussi un certain nombre de limites, qui ressemblent à celles mises en évidence par l’équipe d’Apple pour les LLMs. Beaucoup de personnes — pas toutes — se trompent en essayant de résoudre des versions de la tour de Hanoï avec 8 disques.

Mais justement, nous avons une réponse à cette faille. Nous avons inventé les ordinateurs — et avant les calculatrices — précisément pour résoudre de manière fiable des problèmes complexes, fastidieux ou de plus ou moins grande ampleur, comme la Tour de Hanoi.

L’objectif de l’AGI ne devrait pas être de répliquer parfaitement l’humain, mais — comme je l’ai souvent moi-même dit — de combiner le meilleur des deux mondes : l’adaptabilité humaine avec la force brute et la fiabilité computationnelle.

- Vous pensez qu’avec les LLMs, on risque de combiner le pire des deux mondes ?

(GM) - La vision que j’ai toujours eue de l’AGI est celle d’un système qui allie les forces humaines et celles de la machine, tout en dépassant les faiblesses humaines. Une AGI incapable de faire une addition correcte ne m’intéresse pas. Et je ne voudrais certainement pas confier l’infrastructure mondiale ou l’avenir de l’humanité à un tel système.

Nous ne voulons pas d’une AGI qui oublie de retenir une unité dans une addition élémentaire sous prétexte que les humains font parfois la même erreur — bonne chance dans ce cas pour obtenir un véritable " alignement " ou " sécurité " sans fiabilité !

Au passage, les modèles comme o3 commettent bien plus souvent des erreurs dues à l’hallucination et peinent lourdement à dessiner des schémas fiables. Ils partagent certaines faiblesses humaines, mais ils sont simplement moins bons sur plusieurs aspects. Et si les humains échouent, c’est souvent par manque de mémoire ; les LLMs, eux, disposent de gigaoctets de mémoire, ils n’ont donc aucune excuse.

- L’enthousiasme autour des LLMs vous semble-t-il détourner l’IA de son véritable potentiel scientifique — celui, notamment, d’une alliance entre raisonnement causal et puissance de calcul ?

(GM) - Ce qui est évident c’est que nous n’allons pas " extraire le cône de lumière " de la Terre ou " résoudre la physique " quoi que puissent signifier ces déclarations prétentieuses de Sam Altman avec des systèmes incapables de jouer à la Tour de Hanoï avec 8 disques.

Quand on me demande pourquoi — contrairement à ce qu’on dit — j’aime l’IA, et pourquoi je pense que l’IA — mais pas l’IA générative — pourrait, à terme, bénéficier profondément à l’humanité, je cite toujours le potentiel de progrès scientifiques et technologiques que nous pourrions accomplir si l’on parvenait à combiner les capacités de raisonnement causal de nos meilleurs scientifiques avec la puissance de calcul brut des ordinateurs numériques modernes.

Quelles seront les conséquences de cette progressive prise de conscience des limites de l’actuelle génération de modèles ?

(GM) - Ce que montre le papier d’Apple, de manière fondamentale — quelle que soit la façon dont on définit l’AGI —, c’est que les LLMs ne sont pas un substitut aux bons algorithmes conventionnels bien spécifiés.

Les LLMs ne savent pas jouer aux échecs aussi bien que les algorithmes classiques, ne peuvent pas replier des protéines aussi efficacement que certains hybrides neurosymboliques spécialisés, ne gèrent pas les bases de données aussi bien que les moteurs conçus pour cela… Dans le meilleur des cas — qui n’est pas toujours atteint —, ils peuvent écrire du code Python, en s’appuyant sur des blocs de code symboliques externes pour compenser leurs propres faiblesses — mais même cela n’est pas fiable.

La principale conséquence pour les entreprises et la société que je vois est la suivante : on ne peut pas simplement " brancher " o3 ou Claude sur un problème complexe et s’attendre à ce que cela fonctionne de manière robuste.

- Ne cherche-t-on pas à se rassurer ?  L’usage des LLMs n’a jamais été aussi grand. Plus de personnes utilisent désormais ChatGPT que Wikipedia

(GM) - Comme le montre le dernier article d’Apple, les LLMs peuvent très bien réussir sur un jeu de tests simple — comme la Tour de Hanoï à 4 disques —, et vous donner l’illusion d’avoir appris une solution généralisable, alors que ce n’est pas du tout le cas.

Au moins pour la prochaine décennie, les LLMs — avec ou sans " raisonnement " au moment de l’inférence — continueront d’être utiles, notamment pour le code, le brainstorming et la rédaction de textes. Et comme, me le disait récemment Rao : " Le fait que les LLMs/LRMs n’apprennent pas de manière fiable un seul algorithme sous-jacent n’est pas un obstacle absolu à leur utilisation. Je vois les LRMs comme des systèmes qui apprennent à approximer le déroulement d’un algorithme en allongeant progressivement le raisonnement à l’inférence. " Dans certains contextes, cela suffit. Dans d’autres, non.

Mais toute personne qui pense que les LLMs représentent un chemin direct vers une AGI capable de transformer radicalement la société pour le bien commun se berce d’illusions.

- Cela ne signifie pas que les réseaux neuronaux sont morts, ni que le deep learning est arrivé à sa fin.

(GM) -Les LLMs ne sont qu’une forme possible de deep learning, et peut-être que d’autres — en particulier ceux qui collaborent mieux avec des représentations symboliques — s’en sortiront mieux à l’avenir. Le temps le dira.

Mais cette approche actuelle a des limites qui deviennent chaque jour plus évidentes.

L’IA ne se heurte pas à un mur. 

Mais les LLMs, probablement si — ou du moins ils atteignent un point de rendements décroissants. 

Nous avons besoin de nouvelles approches, et de diversifier les voies qui sont explorées activement.

 



 

Auteur: Internet

Info: https://legrandcontinent.eu/, 10 juin 2025, Gary Marcus interviewé par Victor Storchan

[ spécialisation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste