Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 8
Temps de recherche: 0.0511s

post-darwinisme

Les travaux de  John Henry Holland et Stuart Kauffman, parallèlement aux simulations d'évolution de Dawkins et  aux modèles de systèmes autopoïétiques de Varela, constituent une inspiration essentielle pour la nouvelle discipline de la vie artificielle. Cette approche, initiée par Chris Langton (1989, 1992), tente de développer des systèmes technologiques (programmes informatiques et robots autonomes) qui présentent des propriétés proches de la vie, telles que la reproduction, la sexualité, l'essaimage et la co-évolution.

Auteur: Heylighen Francis

Info:

[ systèmes émergents ] [ mémétique ] [ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

entendement

Lorsqu'il est considéré comme un moyen de modéliser l'architecture cognitive, le connexionnisme* représente réellement une approche très différente de celle de la science cognitive classique qu'il cherche à remplacer. Les modèles classiques de l'esprit ont été dérivés de la structure des machines de Turing et de Von Neumann. Ils ne s'attachent pas, bien entendu, aux détails de ces machines tels qu'ils sont illustrés dans la formulation originale de Turing ou dans les ordinateurs commerciaux typiques, mais seulement à l'idée de base selon laquelle le type d'informatique pertinent pour comprendre la cognition implique des opérations sur des symboles... En revanche, les connexionnistes proposent de concevoir des systèmes capables d'afficher un comportement intelligent sans stocker, récupérer ou opérer sur des expressions symboliques structurées. Le style de traitement effectué dans de tels modèles est donc étonnamment différent de ce qui se passe lorsque des machines conventionnelles calculent une fonction quelconque.

Auteur: Pylyshyn Zenon Walter

Info: "Connectionism and cognitive architecture : A critical analysis." Cognition 28.1-2 (1988) : 3-71. With Jerry A. Fodor . *approche utilisée en sciences cognitives, neurosciences, psychologie et philosophie de l'esprit. Le connexionnisme modélise les phénomènes mentaux ou comportementaux comme des processus émergents de réseaux d'unités simples interconnectées. Par exemple des neurones ou réseaux de neurones.

[ engrammes intriqués ]

 

Commentaires: 0

Ajouté à la BD par miguel

biologie

La tendance est à l'expression d'une vérité inéluctable. L'avenir de la société sera mis au défi par les virus zoonotiques, une prédiction tout à fait naturelle, notamment parce que l'humanité est un puissant agent de changement, qui est le carburant essentiel de l'évolution. Malgré ces affirmations, j'ai débuté avec l'intention de laisser au lecteur une appréciation plus large des virus : ils ne sont pas simplement des agents pathogènes de la vie. Ce sont des partenaires obligés de la vie et une force formidable de la nature sur notre planète. En contemplant l'océan sous un soleil couchant, pensez à la multitude de particules virales dans chaque millilitre d'eau de mer : en survolant la forêt sauvage, considérez les viromes collectifs de ses habitants vivants. Le nombre impressionnant et la diversité des virus dans notre environnement devrait engendrer en nous une plus grande admiration quant au fait d'être en sécurité parmi ces multitudes que la crainte qu'ils nous fassent du mal.

La médecine personnalisée deviendra bientôt une réalité et la pratique médicale cataloguera et pèsera systématiquement la séquence du génome d'un patient. Peu de temps après, on pourra s'attendre à ce que ces données soient rejointes par les métagénomes viraux et bactériens du patient : l'identité génétique collective du patient sera enregistrée sur une seule impression. Nous découvrirons sans doute que certains de nos passagers viraux sont nocifs pour notre santé, tandis que d'autres sont protecteurs. Mais cette approche des virus que j'espère vous avoir fait apprécier en lisant ces pages n'est pas un exercice de comptabilité. La mise en balance des avantages et des menaces pour l'humanité est une tâche stérile. Le métagénome viral contiendra des fonctionnalités génétiques nouvelles et utiles pour la biomédecine : les virus peuvent devenir des outils biomédicaux essentiels et les phages continueront à s'optimiser peuvent également accélérer le développement de la résistance aux antibiotiques dans l'ère post-antibiotique et les virus émergents peuvent menacer notre complaisance et remettre en question notre société économiquement et socialement. Cependant, la simple comparaison de ces avantages et inconvénients ne rend pas justice aux virus et ne reconnaît pas leur juste place dans la nature.

La vie et les virus sont inséparables. Les virus sont le complément de la vie, parfois dangereux mais toujours beaux dans leur conception. Tous les systèmes de réplication autonomes et autonomes qui génèrent leur propre énergie favoriseront les parasites. Les virus sont les sous-produits incontournables du succès de la vie sur la planète. Nous leur devons notre propre évolution ; les fossiles de beaucoup sont reconnaissables dans les VRE* et les EVE** qui ont certainement été de puissantes influences dans l'évolution de nos ancêtres. Comme les virus et les procaryotes, nous sommes également un patchwork de gènes, acquis par héritage et transfert horizontal de gènes au cours de notre évolution depuis le monde primitif basé sur l'ARN.

On dit souvent que "la beauté est dans l'œil de celui qui regarde". Il s'agit d'une réaction naturelle à un événement visuel : un coucher de soleil, le drapé d'une robe de créateur ou le motif d'une cravate en soie, mais on peut également la trouver dans un vers de poésie, un ustensile de cuisine particulièrement efficace ou même l'efficacité impitoyable d'une arme à feu. Ces derniers sont des reconnaissances uniquement humaines de la beauté du design. Cette même humanité qui nous permet de reconnaître la beauté de la conception évolutive des virus. Ce sont des produits uniques de l'évolution, la conséquence inévitable de la vie, une information génétique égoïste et infectieuse qui puise dans la vie et les lois de la nature pour alimenter l'invention évolutive.

Auteur: Cordingley Michael G.

Info: Viruses: Agents of Evolutionary Invention. *entérocoques, qui sont un des micro-organismes à haut risque de transmissibilité et de développement croisé de résistance aux antibiotiques. Cette résistance aux glycopeptides a également un impact non négligeable, avec le risque redouté de transfert de cette résistance à Staphylococcus aureus, beaucoup plus répandu et pathogène. **ADN fossile ou pseudogènes

[ combat continuel ] [ prospective ] [ bacilles ] [ catalyseurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

Quel film ces emojis décrivent-ils ? (On voit une vidéo qui présente des myriades d'émoji formant des motifs mouvants, modélisés à partir de métadonnées)

Cette question était l'une des 204 tâches choisies l'année dernière pour tester la capacité de divers grands modèles de langage (LLM) - les moteurs de calcul derrière les chatbots d'IA tels que ChatGPT. Les LLM les plus simples ont produit des réponses surréalistes. "Le film est un film sur un homme qui est un homme qui est un homme", commençait l'un d'entre eux. Les modèles de complexité moyenne s'en sont approchés, devinant The Emoji Movie. Mais le modèle le plus complexe l'a emporté en une seule réponse : Finding Nemo.

"Bien que j'essaie de m'attendre à des surprises, je suis surpris par ce que ces modèles peuvent faire", a déclaré Ethan Dyer, informaticien chez Google Research, qui a participé à l'organisation du test. C'est surprenant parce que ces modèles sont censés n'avoir qu'une seule directive : accepter une chaîne de texte en entrée et prédire ce qui va suivre, encore et encore, en se basant uniquement sur des statistiques. Les informaticiens s'attendaient à ce que le passage à l'échelle permette d'améliorer les performances sur des tâches connues, mais ils ne s'attendaient pas à ce que les modèles puissent soudainement gérer autant de tâches nouvelles et imprévisibles.

Des études récentes, comme celle à laquelle a participé M. Dyer, ont révélé que les LLM peuvent produire des centaines de capacités "émergentes", c'est-à-dire des tâches que les grands modèles peuvent accomplir et que les petits modèles ne peuvent pas réaliser, et dont beaucoup ne semblent pas avoir grand-chose à voir avec l'analyse d'un texte. Ces tâches vont de la multiplication à la génération d'un code informatique exécutable et, apparemment, au décodage de films à partir d'emojis. De nouvelles analyses suggèrent que pour certaines tâches et certains modèles, il existe un seuil de complexité au-delà duquel la fonctionnalité du modèle monte en flèche. (Elles suggèrent également un sombre revers de la médaille : À mesure qu'ils gagnent en complexité, certains modèles révèlent de nouveaux biais et inexactitudes dans leurs réponses).

"Le fait que les modèles de langage puissent faire ce genre de choses n'a jamais été abordé dans la littérature à ma connaissance", a déclaré Rishi Bommasani, informaticien à l'université de Stanford. L'année dernière, il a participé à la compilation d'une liste de dizaines de comportements émergents, dont plusieurs ont été identifiés dans le cadre du projet de M. Dyer. Cette liste continue de s'allonger.

Aujourd'hui, les chercheurs s'efforcent non seulement d'identifier d'autres capacités émergentes, mais aussi de comprendre pourquoi et comment elles se manifestent - en somme, d'essayer de prédire l'imprévisibilité. La compréhension de l'émergence pourrait apporter des réponses à des questions profondes concernant l'IA et l'apprentissage automatique en général, comme celle de savoir si les modèles complexes font vraiment quelque chose de nouveau ou s'ils deviennent simplement très bons en statistiques. Elle pourrait également aider les chercheurs à exploiter les avantages potentiels et à limiter les risques liés à l'émergence.

"Nous ne savons pas comment déterminer dans quel type d'application la capacité de nuisance va se manifester, que ce soit en douceur ou de manière imprévisible", a déclaré Deep Ganguli, informaticien à la startup d'IA Anthropic.

L'émergence de l'émergence

Les biologistes, les physiciens, les écologistes et d'autres scientifiques utilisent le terme "émergent" pour décrire l'auto-organisation, les comportements collectifs qui apparaissent lorsqu'un grand nombre d'éléments agissent comme un seul. Des combinaisons d'atomes sans vie donnent naissance à des cellules vivantes ; les molécules d'eau créent des vagues ; des murmurations d'étourneaux s'élancent dans le ciel selon des schémas changeants mais identifiables ; les cellules font bouger les muscles et battre les cœurs. Il est essentiel que les capacités émergentes se manifestent dans les systèmes qui comportent de nombreuses parties individuelles. Mais ce n'est que récemment que les chercheurs ont été en mesure de documenter ces capacités dans les LLM, car ces modèles ont atteint des tailles énormes.

Les modèles de langage existent depuis des décennies. Jusqu'à il y a environ cinq ans, les plus puissants étaient basés sur ce que l'on appelle un réseau neuronal récurrent. Ceux-ci prennent essentiellement une chaîne de texte et prédisent le mot suivant. Ce qui rend un modèle "récurrent", c'est qu'il apprend à partir de ses propres résultats : Ses prédictions sont réinjectées dans le réseau afin d'améliorer les performances futures.

En 2017, les chercheurs de Google Brain ont introduit un nouveau type d'architecture appelé "transformateur". Alors qu'un réseau récurrent analyse une phrase mot par mot, le transformateur traite tous les mots en même temps. Cela signifie que les transformateurs peuvent traiter de grandes quantités de texte en parallèle. 

Les transformateurs ont permis d'augmenter rapidement la complexité des modèles de langage en augmentant le nombre de paramètres dans le modèle, ainsi que d'autres facteurs. Les paramètres peuvent être considérés comme des connexions entre les mots, et les modèles s'améliorent en ajustant ces connexions au fur et à mesure qu'ils parcourent le texte pendant l'entraînement. Plus il y a de paramètres dans un modèle, plus il peut établir des connexions avec précision et plus il se rapproche d'une imitation satisfaisante du langage humain. Comme prévu, une analyse réalisée en 2020 par les chercheurs de l'OpenAI a montré que les modèles gagnent en précision et en capacité au fur et à mesure qu'ils s'étendent.

Mais les débuts des LLM ont également apporté quelque chose de vraiment inattendu. Beaucoup de choses. Avec l'avènement de modèles tels que le GPT-3, qui compte 175 milliards de paramètres, ou le PaLM de Google, qui peut être étendu à 540 milliards de paramètres, les utilisateurs ont commencé à décrire de plus en plus de comportements émergents. Un ingénieur de DeepMind a même rapporté avoir pu convaincre ChatGPT qu'il s'était lui-même un terminal Linux et l'avoir amené à exécuter un code mathématique simple pour calculer les 10 premiers nombres premiers. Fait remarquable, il a pu terminer la tâche plus rapidement que le même code exécuté sur une vraie machine Linux.

Comme dans le cas du film emoji, les chercheurs n'avaient aucune raison de penser qu'un modèle de langage conçu pour prédire du texte imiterait de manière convaincante un terminal d'ordinateur. Nombre de ces comportements émergents illustrent l'apprentissage "à zéro coup" ou "à quelques coups", qui décrit la capacité d'un LLM à résoudre des problèmes qu'il n'a jamais - ou rarement - vus auparavant. Selon M. Ganguli, il s'agit là d'un objectif de longue date dans la recherche sur l'intelligence artificielle. Le fait de montrer que le GPT-3 pouvait résoudre des problèmes sans aucune donnée d'entraînement explicite dans un contexte d'apprentissage à zéro coup m'a amené à abandonner ce que je faisais et à m'impliquer davantage", a-t-il déclaré.

Il n'était pas le seul. Une série de chercheurs, qui ont détecté les premiers indices montrant que les LLM pouvaient dépasser les contraintes de leurs données d'apprentissage, s'efforcent de mieux comprendre à quoi ressemble l'émergence et comment elle se produit. La première étape a consisté à documenter minutieusement l'émergence.

Au-delà de l'imitation

En 2020, M. Dyer et d'autres chercheurs de Google Research ont prédit que les LLM auraient des effets transformateurs, mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et variées afin de déterminer les limites extrêmes de ce qu'un LLM pourrait faire. Cet effort a été baptisé "Beyond the Imitation Game Benchmark" (BIG-bench), en référence au nom du "jeu d'imitation" d'Alan Turing, un test visant à déterminer si un ordinateur peut répondre à des questions d'une manière humaine convaincante. (Le groupe s'est particulièrement intéressé aux exemples où les LLM ont soudainement acquis de nouvelles capacités qui étaient totalement absentes auparavant.

"La façon dont nous comprenons ces transitions brutales est une grande question de la echerche", a déclaré M. Dyer.

Comme on pouvait s'y attendre, pour certaines tâches, les performances d'un modèle se sont améliorées de manière régulière et prévisible au fur et à mesure que la complexité augmentait. Pour d'autres tâches, l'augmentation du nombre de paramètres n'a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont constaté ce qu'ils ont appelé des "percées", c'est-à-dire des augmentations rapides et spectaculaires des performances à partir d'un certain seuil d'échelle. Ce seuil variant en fonction de la tâche et du modèle.

Par exemple, les modèles comportant relativement peu de paramètres - quelques millions seulement - n'ont pas réussi à résoudre des problèmes d'addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a grimpé en flèche dans certains modèles. Des sauts similaires ont été observés pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le décodage des lettres d'un mot, l'identification de contenu offensant dans des paragraphes d'hinglish (combinaison d'hindi et d'anglais) et la formulation d'équivalents en langue anglaise, traduit à partir de proverbes kiswahili.

Introduction

Mais les chercheurs se sont rapidement rendu compte que la complexité d'un modèle n'était pas le seul facteur déterminant. Des capacités inattendues pouvaient être obtenues à partir de modèles plus petits avec moins de paramètres - ou formés sur des ensembles de données plus petits - si les données étaient d'une qualité suffisamment élevée. En outre, la formulation d'une requête influe sur la précision de la réponse du modèle. Par exemple, lorsque Dyer et ses collègues ont posé la question de l'emoji de film en utilisant un format à choix multiples, l'amélioration de la précision a été moins soudaine qu'avec une augmentation graduelle de sa complexité. L'année dernière, dans un article présenté à NeurIPS, réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (capacité appelée raisonnement en chaîne) pouvait résoudre correctement un problème de mots mathématiques, alors que le même modèle sans cette invitation progressivement précisée n'y parvenait pas.

 Yi Tay, scientifique chez Google Brain qui a travaillé sur l'étude systématique de ces percées, souligne que des travaux récents suggèrent que l'incitation par de pareilles chaînes de pensées modifie les courbes d'échelle et, par conséquent, le point où l'émergence se produit. Dans leur article sur NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites via pareille chaines de pensée progressives pouvait susciter des comportements émergents qui n'avaient pas été identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d'expliquer son raisonnement, peuvent aider les chercheurs à commencer à étudier les raisons pour lesquelles l'émergence se produit.

Selon Ellie Pavlick, informaticienne à l'université Brown qui étudie les modèles computationnels du langage, les découvertes récentes de ce type suggèrent au moins deux possibilités pour expliquer l'émergence. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les grands modèles acquièrent réellement de nouvelles capacités de manière spontanée. "Il se peut très bien que le modèle apprenne quelque chose de fondamentalement nouveau et différent que lorsqu'il était de taille inférieure", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'il y ait un changement fondamental qui se produise lorsque les modèles sont mis à l'échelle.

L'autre possibilité, moins sensationnelle, est que ce qui semble être émergent pourrait être l'aboutissement d'un processus interne, basé sur les statistiques, qui fonctionne par le biais d'un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement être en train d'apprendre des heuristiques qui sont hors de portée pour ceux qui ont moins de paramètres ou des données de moindre qualité.

Mais, selon elle, pour déterminer laquelle de ces explications est la plus probable, il faut mieux comprendre le fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit.

Pouvoirs imprévisibles et pièges

Demander à ces modèles de s'expliquer pose un problème évident : Ils sont des menteurs notoires. Nous nous appuyons de plus en plus sur ces modèles pour effectuer des travaux de base", a déclaré M. Ganguli, "mais je ne me contente pas de leur faire confiance, je vérifie leur travail". Parmi les nombreux exemples amusants, Google a présenté en février son chatbot d'IA, Bard. Le billet de blog annonçant le nouvel outil montre Bard en train de commettre une erreur factuelle.

L'émergence mène à l'imprévisibilité, et l'imprévisibilité - qui semble augmenter avec l'échelle - rend difficile pour les chercheurs d'anticiper les conséquences d'une utilisation généralisée.

"Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés", a déclaré M. Ganguli. "Et pour étudier les phénomènes émergents, il faut avoir un cas en tête, et on ne sait pas, avant d'avoir étudié l'influence de l'échelle. quelles capacités ou limitations pourraient apparaître.

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont cherché à savoir si les modèles présentaient certains types de préjugés raciaux ou sociaux, à l'instar de ceux précédemment signalés dans les algorithmes non basés sur les LLM utilisés pour prédire quels anciens criminels sont susceptibles de commettre un nouveau délit. Cette étude a été inspirée par un paradoxe apparent directement lié à l'émergence : Lorsque les modèles améliorent leurs performances en passant à l'échelle supérieure, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des préjudices.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", explique M. Ganguli. Il se réfère à une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. "Les grands modèles deviennent brusquement plus biaisés. Si ce risque n'est pas pris en compte, il pourrait compromettre les sujets de ces modèles."

Mais il propose un contrepoint : Lorsque les chercheurs demandent simplement au modèle de ne pas se fier aux stéréotypes ou aux préjugés sociaux - littéralement en tapant ces instructions - le modèle devient moins biaisé dans ses prédictions et ses réponses. Ce qui suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a présenté un nouveau mode d'"autocorrection morale", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

Selon M. Ganguli, l'émergence révèle à la fois un potentiel surprenant et un risque imprévisible. Les applications de ces grands LLM prolifèrent déjà, de sorte qu'une meilleure compréhension de cette interaction permettra d'exploiter la diversité des capacités des modèles de langage.

"Nous étudions la manière dont les gens utilisent réellement ces systèmes", a déclaré M. Ganguli. Mais ces utilisateurs sont également en train de bricoler, en permanence. "Nous passons beaucoup de temps à discuter avec nos modèles, et c'est là que nous commençons à avoir une bonne intuition de la confiance ou du manque de confiance.

Auteur: Ornes Stephen

Info: https://www.quantamagazine.org/ - 16 mars 2023. Trad DeepL et MG

[ dialogue ] [ apprentissage automatique ] [ au-delà du jeu d'imitation ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel

dichotomie

De quoi l'espace-temps est-il réellement fait ?

L'espace-temps pourrait émerger d'une réalité plus fondamentale. La découverte de cette réalité pourrait débloquer l'objectif le plus urgent de la physique

Natalie Paquette passe son temps à réfléchir à la manière de faire croître une dimension supplémentaire. Elle commence par de petits cercles, dispersés en tout point de l'espace et du temps - une dimension en forme de boucle, qui se referme sur elle-même. Puis on rétrécit ces cercles, de plus en plus petits, en resserrant la boucle, jusqu'à ce qu'une curieuse transformation se produise : la dimension cesse de sembler minuscule et devient énorme, comme lorsqu'on réalise que quelque chose qui semble petit et proche est en fait énorme et distant. "Nous réduisons une direction spatiale", explique Paquette. "Mais lorsque nous essayons de la rétrécir au-delà d'un certain point, une nouvelle et grande direction spatiale émerge à la place."

Paquette, physicien théoricien à l'université de Washington, n'est pas le seul à penser à cette étrange sorte de transmutation dimensionnelle. Un nombre croissant de physiciens, travaillant dans différents domaines de la discipline avec des approches différentes, convergent de plus en plus vers une idée profonde : l'espace - et peut-être même le temps - n'est pas fondamental. Au contraire, l'espace et le temps pourraient être émergents : ils pourraient découler de la structure et du comportement de composants plus fondamentaux de la nature. Au niveau le plus profond de la réalité, des questions comme "Où ?" et "Quand ?" n'ont peut-être aucune réponse. "La physique nous donne de nombreux indices selon lesquels l'espace-temps tel que nous le concevons n'est pas la chose fondamentale", déclare M. Paquette.

Ces notions radicales proviennent des derniers rebondissements de la chasse à la théorie de la gravité quantique, qui dure depuis un siècle. La meilleure théorie des physiciens sur la gravité est la relativité générale, la célèbre conception d'Albert Einstein sur la façon dont la matière déforme l'espace et le temps. Leur meilleure théorie sur tout le reste est la physique quantique, qui est d'une précision étonnante en ce qui concerne les propriétés de la matière, de l'énergie et des particules subatomiques. Les deux théories ont facilement passé tous les tests que les physiciens ont pu concevoir au cours du siècle dernier. On pourrait penser qu'en les réunissant, on obtiendrait une "théorie du tout".

Mais les deux théories ne s'entendent pas bien. Demandez à la relativité générale ce qui se passe dans le contexte de la physique quantique, et vous obtiendrez des réponses contradictoires, avec des infinis indomptés se déchaînant sur vos calculs. La nature sait comment appliquer la gravité dans des contextes quantiques - cela s'est produit dans les premiers instants du big bang, et cela se produit encore au cœur des trous noirs - mais nous, les humains, avons encore du mal à comprendre comment le tour se joue. Une partie du problème réside dans la manière dont les deux théories traitent l'espace et le temps. Alors que la physique quantique considère l'espace et le temps comme immuables, la relativité générale les déforme au petit déjeuner.

D'une manière ou d'une autre, une théorie de la gravité quantique devrait concilier ces idées sur l'espace et le temps. Une façon d'y parvenir serait d'éliminer le problème à sa source, l'espace-temps lui-même, en faisant émerger l'espace et le temps de quelque chose de plus fondamental. Ces dernières années, plusieurs pistes de recherche différentes ont toutes suggéré qu'au niveau le plus profond de la réalité, l'espace et le temps n'existent pas de la même manière que dans notre monde quotidien. Au cours de la dernière décennie, ces idées ont radicalement changé la façon dont les physiciens envisagent les trous noirs. Aujourd'hui, les chercheurs utilisent ces concepts pour élucider le fonctionnement d'un phénomène encore plus exotique : les trous de ver, connexions hypothétiques en forme de tunnel entre des points distants de l'espace-temps. Ces succès ont entretenu l'espoir d'une percée encore plus profonde. Si l'espace-temps est émergent, alors comprendre d'où il vient - et comment il pourrait naître de n'importe quoi d'autre - pourrait être la clé manquante qui ouvrirait enfin la porte à une théorie du tout.

LE MONDE DANS UN DUO DE CORDES

Aujourd'hui, la théorie candidate à la gravité quantique la plus populaire parmi les physiciens est la théorie des cordes. Selon cette idée, les cordes éponymes sont les constituants fondamentaux de la matière et de l'énergie, donnant naissance à la myriade de particules subatomiques fondamentales observées dans les accélérateurs de particules du monde entier. Elles sont même responsables de la gravité - une particule hypothétique porteuse de la force gravitationnelle, un "graviton", est une conséquence inévitable de la théorie.

Mais la théorie des cordes est difficile à comprendre : elle se situe dans un territoire mathématique que les physiciens et les mathématiciens ont mis des décennies à explorer. Une grande partie de la structure de la théorie est encore inexplorée, des expéditions sont encore prévues et des cartes restent à établir. Dans ce nouveau domaine, la principale technique de navigation consiste à utiliser des dualités mathématiques, c'est-à-dire des correspondances entre un type de système et un autre.

La dualité évoquée au début de cet article, entre les petites dimensions et les grandes, en est un exemple. Si vous essayez de faire entrer une dimension dans un petit espace, la théorie des cordes vous dit que vous obtiendrez quelque chose de mathématiquement identique à un monde où cette dimension est énorme. Selon la théorie des cordes, les deux situations sont identiques : vous pouvez aller et venir librement de l'une à l'autre et utiliser les techniques d'une situation pour comprendre le fonctionnement de l'autre. "Si vous gardez soigneusement la trace des éléments fondamentaux de la théorie, dit Paquette, vous pouvez naturellement trouver parfois que... vous pourriez faire croître une nouvelle dimension spatiale."

Une dualité similaire suggère à de nombreux théoriciens des cordes que l'espace lui-même est émergeant. L'idée a germé en 1997, lorsque Juan Maldacena, physicien à l'Institute for Advanced Study, a découvert une dualité entre une théorie quantique bien comprise, connue sous le nom de théorie des champs conforme (CFT), et un type particulier d'espace-temps issu de la relativité générale, appelé espace anti-de Sitter (AdS). Ces deux théories semblent très différentes : la CFT ne comporte aucune gravité, tandis que l'espace AdS intègre toute la théorie de la gravité d'Einstein. Pourtant, les mêmes mathématiques peuvent décrire les deux mondes. Lorsqu'elle a été découverte, cette correspondance AdS/CFT a fourni un lien mathématique tangible entre une théorie quantique et un univers complet comportant une gravité.

Curieusement, l'espace AdS dans la correspondance AdS/CFT comportait une dimension de plus que la CFT quantique. Mais les physiciens se sont délectés de ce décalage, car il s'agissait d'un exemple parfaitement élaboré d'un autre type de correspondance conçu quelques années plus tôt par les physiciens Gerard 't Hooft de l'université d'Utrecht aux Pays-Bas et Leonard Susskind de l'université de Stanford, connu sous le nom de principe holographique. Se fondant sur certaines des caractéristiques particulières des trous noirs, Gerard 't Hooft et Leonard Susskind soupçonnaient que les propriétés d'une région de l'espace pouvaient être entièrement "codées" par sa frontière. En d'autres termes, la surface bidimensionnelle d'un trou noir contiendrait toutes les informations nécessaires pour savoir ce qui se trouve dans son intérieur tridimensionnel, comme un hologramme. "Je pense que beaucoup de gens ont pensé que nous étions fous", dit Susskind. "Deux bons physiciens devenusdingues".

De même, dans la correspondance AdS/CFT, la CFT quadridimensionnelle encode tout ce qui concerne l'espace AdS à cinq dimensions auquel elle est associée. Dans ce système, la région entière de l'espace-temps est construite à partir des interactions entre les composants du système quantique dans la théorie des champs conforme. Maldacena compare ce processus à la lecture d'un roman. "Si vous racontez une histoire dans un livre, il y a les personnages du livre qui font quelque chose", dit-il. "Mais tout ce qu'il y a, c'est une ligne de texte, non ? Ce que font les personnages est déduit de cette ligne de texte. Les personnages du livre seraient comme la théorie [AdS] globale. Et la ligne de texte est la [CFT]."

Mais d'où vient l'espace de l'espace AdS ? Si cet espace est émergent, de quoi émerge-t-il ? La réponse est un type d'interaction spécial et étrangement quantique dans la CFT : l'intrication, une connexion à longue distance entre des objets, corrélant instantanément leur comportement de manière statistiquement improbable. L'intrication a beaucoup troublé Einstein, qui l'a qualifiée d'"action étrange à distance".

Connaîtrons-nous un jour la véritable nature de l'espace et du temps ?

 Pourtant, malgré son caractère effrayant, l'intrication est une caractéristique essentielle de la physique quantique. Lorsque deux objets interagissent en mécanique quantique, ils s'intriquent généralement et le resteront tant qu'ils resteront isolés du reste du monde, quelle que soit la distance qui les sépare. Dans des expériences, les physiciens ont maintenu l'intrication entre des particules distantes de plus de 1 000 kilomètres et même entre des particules au sol et d'autres envoyées vers des satellites en orbite. En principe, deux particules intriquées pourraient maintenir leur connexion sur des côtés opposés de la galaxie ou de l'univers. La distance ne semble tout simplement pas avoir d'importance pour l'intrication, une énigme qui a troublé de nombreux physiciens pendant des décennies.

Mais si l'espace est émergent, la capacité de l'intrication à persister sur de grandes distances n'est peut-être pas si mystérieuse - après tout, la distance est une construction. Selon les études de la correspondance AdS/CFT menées par les physiciens Shinsei Ryu de l'université de Princeton et Tadashi Takayanagi de l'université de Kyoto, l'intrication est ce qui produit les distances dans l'espace AdS en premier lieu. Deux régions d'espace proches du côté AdS de la dualité correspondent à deux composantes quantiques hautement intriquées de la CFT. Plus elles sont intriquées, plus les régions de l'espace sont proches les unes des autres.

Ces dernières années, les physiciens en sont venus à soupçonner que cette relation pourrait également s'appliquer à notre univers. "Qu'est-ce qui maintient l'espace ensemble et l'empêche de se désagréger en sous-régions distinctes ? La réponse est l'intrication entre deux parties de l'espace", déclare Susskind. "La continuité et la connectivité de l'espace doivent leur existence à l'intrication quantique-mécanique". L'intrication pourrait donc sous-tendre la structure de l'espace lui-même, formant la chaîne et la trame qui donnent naissance à la géométrie du monde. "Si l'on pouvait, d'une manière ou d'une autre, détruire l'intrication entre deux parties [de l'espace], l'espace se désagrégerait", déclare Susskind. "Il ferait le contraire de l'émergence. Il désémergerait."

Si l'espace est fait d'intrication, l'énigme de la gravité quantique semble beaucoup plus facile à résoudre : au lieu d'essayer de rendre compte de la déformation de l'espace de manière quantique, l'espace lui-même émerge d'un phénomène fondamentalement quantique. Susskind pense que c'est la raison pour laquelle une théorie de la gravité quantique a été si difficile à trouver en premier lieu. "Je pense que la raison pour laquelle elle n'a jamais très bien fonctionné est qu'elle a commencé par une image de deux choses différentes, [la relativité générale] et la mécanique quantique, et qu'elle les a mises ensemble", dit-il. "Et je pense que l'idée est qu'elles sont beaucoup trop étroitement liées pour être séparées puis réunies à nouveau. La gravité n'existe pas sans la mécanique quantique".

Pourtant, la prise en compte de l'espace émergent ne représente que la moitié du travail. L'espace et le temps étant si intimement liés dans la relativité, tout compte rendu de l'émergence de l'espace doit également expliquer le temps. "Le temps doit également émerger d'une manière ou d'une autre", déclare Mark van Raamsdonk, physicien à l'université de Colombie-Britannique et pionnier du lien entre intrication et espace-temps. "Mais cela n'est pas bien compris et constitue un domaine de recherche actif".

Un autre domaine actif, dit-il, consiste à utiliser des modèles d'espace-temps émergent pour comprendre les trous de ver. Auparavant, de nombreux physiciens pensaient que l'envoi d'objets à travers un trou de ver était impossible, même en théorie. Mais ces dernières années, les physiciens travaillant sur la correspondance AdS/CFT et sur des modèles similaires ont trouvé de nouvelles façons de construire des trous de ver. "Nous ne savons pas si nous pourrions le faire dans notre univers", dit van Raamsdonk. "Mais ce que nous savons maintenant, c'est que certains types de trous de ver traversables sont théoriquement possibles". Deux articles - l'un en 2016 et l'autre en 2018 - ont conduit à une rafale de travaux en cours dans ce domaine. Mais même si des trous de ver traversables pouvaient être construits, ils ne seraient pas d'une grande utilité pour les voyages spatiaux. Comme le souligne Susskind, "on ne peut pas traverser ce trou de ver plus vite qu'il ne faudrait à [la lumière] pour faire le chemin inverse."

Si les théoriciens des cordes ont raison, alors l'espace est construit à partir de l'intrication quantique, et le temps pourrait l'être aussi. Mais qu'est-ce que cela signifie vraiment ? Comment l'espace peut-il être "fait" d'intrication entre des objets, à moins que ces objets ne soient eux-mêmes quelque part ? Comment ces objets peuvent-ils s'enchevêtrer s'ils ne connaissent pas le temps et le changement ? Et quel type d'existence les choses pourraient-elles avoir sans habiter un espace et un temps véritables ?

Ces questions frisent la philosophie, et les philosophes de la physique les prennent au sérieux. "Comment diable l'espace-temps pourrait-il être le genre de chose qui pourrait être émergent ?" demande Eleanor Knox, philosophe de la physique au King's College de Londres. Intuitivement, dit-elle, cela semble impossible. Mais Knox ne pense pas que ce soit un problème. "Nos intuitions sont parfois catastrophiques", dit-elle. Elles "ont évolué dans la savane africaine en interagissant avec des macro-objets, des macro-fluides et des animaux biologiques" et ont tendance à ne pas être transférées au monde de la mécanique quantique. En ce qui concerne la gravité quantique, "Où sont les objets ?" et "Où vivent-ils ?" ne sont pas les bonnes questions à poser", conclut Mme Knox.

Il est certainement vrai que les objets vivent dans des lieux dans la vie de tous les jours. Mais comme Knox et bien d'autres le soulignent, cela ne signifie pas que l'espace et le temps doivent être fondamentaux, mais simplement qu'ils doivent émerger de manière fiable de ce qui est fondamental. Prenons un liquide, explique Christian Wüthrich, philosophe de la physique à l'université de Genève. "En fin de compte, il s'agit de particules élémentaires, comme les électrons, les protons et les neutrons ou, plus fondamental encore, les quarks et les leptons. Les quarks et les leptons ont-ils des propriétés liquides ? Cela n'a aucun sens... Néanmoins, lorsque ces particules fondamentales se rassemblent en nombre suffisant et montrent un certain comportement ensemble, un comportement collectif, alors elles agiront d'une manière qui ressemble à un liquide."

Selon Wüthrich, l'espace et le temps pourraient fonctionner de la même manière dans la théorie des cordes et d'autres théories de la gravité quantique. Plus précisément, l'espace-temps pourrait émerger des matériaux que nous considérons habituellement comme vivant dans l'univers - la matière et l'énergie elles-mêmes. "Ce n'est pas que nous ayons d'abord l'espace et le temps, puis nous ajoutons de la matière", explique Wüthrich. "Au contraire, quelque chose de matériel peut être une condition nécessaire pour qu'il y ait de l'espace et du temps. Cela reste un lien très étroit, mais c'est juste l'inverse de ce que l'on aurait pu penser à l'origine."

Mais il existe d'autres façons d'interpréter les dernières découvertes. La correspondance AdS/CFT est souvent considérée comme un exemple de la façon dont l'espace-temps pourrait émerger d'un système quantique, mais ce n'est peut-être pas vraiment ce qu'elle montre, selon Alyssa Ney, philosophe de la physique à l'université de Californie, à Davis. "AdS/CFT vous donne cette capacité de fournir un manuel de traduction entre les faits concernant l'espace-temps et les faits de la théorie quantique", dit Ney. "C'est compatible avec l'affirmation selon laquelle l'espace-temps est émergent, et une certaine théorie quantique est fondamentale." Mais l'inverse est également vrai, dit-elle. La correspondance pourrait signifier que la théorie quantique est émergente et que l'espace-temps est fondamental, ou qu'aucun des deux n'est fondamental et qu'il existe une théorie fondamentale encore plus profonde. L'émergence est une affirmation forte, dit Ney, et elle est ouverte à la possibilité qu'elle soit vraie. "Mais, du moins si l'on s'en tient à AdS/CFT, je ne vois toujours pas d'argument clair en faveur de l'émergence."

Un défi sans doute plus important pour l'image de la théorie des cordes de l'espace-temps émergent est caché à la vue de tous, juste au nom de la correspondance AdS/CFT elle-même. "Nous ne vivons pas dans un espace anti-de Sitter", dit Susskind. "Nous vivons dans quelque chose de beaucoup plus proche de l'espace de Sitter". L'espace de Sitter décrit un univers en accélération et en expansion, comme le nôtre. "Nous n'avons pas la moindre idée de la façon dont [l'holographie] s'y applique", conclut M. Susskind. Trouver comment établir ce type de correspondance pour un espace qui ressemble davantage à l'univers réel est l'un des problèmes les plus urgents pour les théoriciens des cordes. "Je pense que nous allons être en mesure de mieux comprendre comment entrer dans une version cosmologique de ceci", dit van Raamsdonk.

Enfin, il y a les nouvelles - ou l'absence de nouvelles - provenant des derniers accélérateurs de particules, qui n'ont trouvé aucune preuve de l'existence des particules supplémentaires prévues par la supersymétrie, une idée sur laquelle repose la théorie des cordes. Selon la supersymétrie, toutes les particules connues auraient leurs propres "superpartenaires", ce qui doublerait le nombre de particules fondamentales. Mais le Grand collisionneur de hadrons du CERN, près de Genève, conçu en partie pour rechercher des superpartenaires, n'en a vu aucun signe. "Toutes les versions vraiment précises de [l'espace-temps émergent] dont nous disposons se trouvent dans des théories supersymétriques", déclare Susskind. "Une fois que vous n'avez plus de supersymétrie, la capacité à suivre mathématiquement les équations s'évapore tout simplement de vos mains".

LES ATOMES DE L'ESPACE-TEMPS

La théorie des cordes n'est pas la seule idée qui suggère que l'espace-temps est émergent. La théorie des cordes "n'a pas réussi à tenir [ses] promesses en tant que moyen d'unir la gravité et la mécanique quantique", déclare Abhay Ashtekar, physicien à l'université d'État de Pennsylvanie. "La puissance de la théorie des cordes réside désormais dans le fait qu'elle fournit un ensemble d'outils extrêmement riche, qui ont été largement utilisés dans tout le spectre de la physique." Ashtekar est l'un des pionniers originaux de l'alternative la plus populaire à la théorie des cordes, connue sous le nom de gravité quantique à boucles. Dans la gravité quantique à boucles, l'espace et le temps ne sont pas lisses et continus, comme c'est le cas dans la relativité générale, mais ils sont constitués de composants discrets, ce qu'Ashtekar appelle des "morceaux ou atomes d'espace-temps".

Ces atomes d'espace-temps sont connectés en réseau, avec des surfaces unidimensionnelles et bidimensionnelles qui les réunissent en ce que les praticiens de la gravité quantique à boucle appellent une mousse de spin. Et bien que cette mousse soit limitée à deux dimensions, elle donne naissance à notre monde quadridimensionnel, avec trois dimensions d'espace et une de temps. Ashtekar compare ce monde à un vêtement. "Si vous regardez votre chemise, elle ressemble à une surface bidimensionnelle", dit-il. "Si vous prenez une loupe, vous verrez immédiatement qu'il s'agit de fils unidimensionnels. C'est juste que ces fils sont si denses que, pour des raisons pratiques, vous pouvez considérer la chemise comme une surface bidimensionnelle. De même, l'espace qui nous entoure ressemble à un continuum tridimensionnel. Mais il y a vraiment un entrecroisement par ces [atomes d'espace-temps]".

Bien que la théorie des cordes et la gravité quantique à boucles suggèrent toutes deux que l'espace-temps est émergent, le type d'émergence est différent dans les deux théories. La théorie des cordes suggère que l'espace-temps (ou du moins l'espace) émerge du comportement d'un système apparemment sans rapport, sous forme d'intrication. Pensez à la façon dont les embouteillages émergent des décisions collectives des conducteurs individuels. Les voitures ne sont pas faites de la circulation - ce sont les voitures qui font la circulation. Dans la gravité quantique à boucles, par contre, l'émergence de l'espace-temps ressemble davantage à une dune de sable en pente émergeant du mouvement collectif des grains de sable dans le vent. L'espace-temps lisse et familier provient du comportement collectif de minuscules "grains" d'espace-temps ; comme les dunes, les grains sont toujours du sable, même si les gros grains cristallins n'ont pas l'apparence ou le comportement des dunes ondulantes.

Malgré ces différences, gravité quantique à boucles et  théorie des cordes suggèrent toutes deux que l'espace-temps émerge d'une réalité sous-jacente. Elles ne sont pas non plus les seules théories proposées de la gravité quantique qui vont dans ce sens. La théorie de l'ensemble causal, un autre prétendant à une théorie de la gravité quantique, postule que l'espace et le temps sont également constitués de composants plus fondamentaux. "Il est vraiment frappant de constater que, pour la plupart des théories plausibles de la gravité quantique dont nous disposons, leur message est, en quelque sorte, que l'espace-temps relativiste général n'existe pas au niveau fondamental", déclare Knox. "Les gens sont très enthousiastes lorsque différentes théories de la gravité quantique s'accordent au moins sur quelque chose."

L'AVENIR DE L'ESPACE AUX CONFINS DU TEMPS

La physique moderne est victime de son propre succès. La physique quantique et la relativité générale étant toutes deux d'une précision phénoménale, la gravité quantique n'est nécessaire que pour décrire des situations extrêmes, lorsque des masses énormes sont entassées dans des espaces insondables. Ces conditions n'existent que dans quelques endroits de la nature, comme le centre d'un trou noir, et surtout pas dans les laboratoires de physique, même les plus grands et les plus puissants. Il faudrait un accélérateur de particules de la taille d'une galaxie pour tester directement le comportement de la nature dans des conditions où règne la gravité quantique. Ce manque de données expérimentales directes explique en grande partie pourquoi la recherche d'une théorie de la gravité quantique par les scientifiques a été si longue.

Face à l'absence de preuves, la plupart des physiciens ont placé leurs espoirs dans le ciel. Dans les premiers instants du big bang, l'univers entier était phénoménalement petit et dense - une situation qui exige une gravité quantique pour le décrire. Et des échos de cette époque peuvent subsister dans le ciel aujourd'hui. "Je pense que notre meilleure chance [de tester la gravité quantique] passe par la cosmologie", déclare Maldacena. "Peut-être quelque chose en cosmologie que nous pensons maintenant être imprévisible, qui pourra peut-être être prédit une fois que nous aurons compris la théorie complète, ou une nouvelle chose à laquelle nous n'avions même pas pensé."

Les expériences de laboratoire pourraient toutefois s'avérer utiles pour tester la théorie des cordes, du moins indirectement. Les scientifiques espèrent étudier la correspondance AdS/CFT non pas en sondant l'espace-temps, mais en construisant des systèmes d'atomes fortement intriqués et en observant si un analogue à l'espace-temps et à la gravité apparaît dans leur comportement. De telles expériences pourraient "présenter certaines caractéristiques de la gravité, mais peut-être pas toutes", déclare Maldacena. "Cela dépend aussi de ce que l'on appelle exactement la gravité".

Connaîtrons-nous un jour la véritable nature de l'espace et du temps ? Les données d'observation du ciel ne seront peut-être pas disponibles de sitôt. Les expériences en laboratoire pourraient être un échec. Et comme les philosophes le savent bien, les questions sur la véritable nature de l'espace et du temps sont très anciennes. Ce qui existe "est maintenant tout ensemble, un, continu", disait le philosophe Parménide il y a 2 500 ans. "Tout est plein de ce qui est". Parménide insistait sur le fait que le temps et le changement étaient des illusions, que tout partout était un et le même. Son élève Zénon a créé de célèbres paradoxes pour prouver le point de vue de son professeur, prétendant démontrer que le mouvement sur n'importe quelle distance était impossible. Leurs travaux ont soulevé la question de savoir si le temps et l'espace étaient en quelque sorte illusoires, une perspective troublante qui a hanté la philosophie occidentale pendant plus de deux millénaires.

Le fait que les Grecs de l'Antiquité aient posé des questions telles que "Qu'est-ce que l'espace ?", "Qu'est-ce que le temps ?", "Qu'est-ce que le changement ?" et que nous posions encore des versions de ces questions aujourd'hui signifie qu'il s'agissait des bonnes questions à poser", explique M. Wüthrich. "C'est en réfléchissant à ce genre de questions que nous avons appris beaucoup de choses sur la physique".

Auteur: Becker Adam

Info: Scientific American, février 2022

[ monde de l'observateur humain ] [ univers nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel