Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 19
Temps de recherche: 0.0418s

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Notre cerveau à l’heure des nouvelles lectures

Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement de l’enfant est venue évoquer "la modification de notre cerveau-lecteur au 21e siècle"

Comment lisons-nous ?

"Le cerveau humain n’était pas programmé pour être capable de lire. Il était fait pour sentir, parler, entendre, regarder… Mais nous n’étions pas programmés génétiquement pour apprendre à lire". Comme l’explique le neuroscientifique français Stanislas Dehaene (Wikipédia) dans son livre Les neurones de la lecture, nous avons utilisé notre cerveau pour identifier des modèles. C’est l’invention culturelle qui a transformé notre cerveau, qui a relié et connecté nos neurones entre eux, qui leur a appris à travailler en groupes de neurones spécialisés, notamment pour déchiffrer la reconnaissance de formes. La reconnaissance des formes et des modèles a permis la naissance des premiers symboles logographiques, permettant de symboliser ce qu’on voyait qui nous mènera des peintures rupestres aux premières tablettes sumériennes. Avec l’invention de l’alphabet, l’homme inventera le principe que chaque mot est un son et que chaque son peut-être signifié par un symbole. Le cerveau lecteur consiste donc à la fois à être capable de "voir", décoder des informations, des motifs et à les traiter pour pouvoir penser et avoir une réflexion.

Pour autant, le circuit de la lecture n’est pas homogène. Quand on observe à l’imagerie cérébrale un anglais qui lit de l’anglais, un chinois qui lit du chinois ou le Kanji, un Japonais qui lit le Kana japonais, on se rend compte que ces lectures activent des zones sensiblement différentes selon les formes d’écritures. Ce qui signifie qu’il y a plusieurs circuits de lecture dans notre cerveau. Le cerveau est plastique et il se réarrange de multiples façons pour lire, dépendant à la fois du système d’écriture et du médium utilisé. "Nous sommes ce que nous lisons et ce que nous lisons nous façonne" Ce qui explique aussi que chaque enfant qui apprend à lire doit développer son propre circuit de lecture.

Ce qui stimule le plus notre cerveau, selon l’imagerie médicale, c’est d’abord jouer une pièce au piano puis lire un poème très difficile, explique Maryanne Wolf. Car la lecture profonde nécessite une forme de concentration experte. Comme le souligne Proust dans Sur la lecture : "Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit."

La lenteur, la concentration et le processus cognitif encouragent le cerveau lecteur. La déduction, la pensée analogique, l’analyse critique, la délibération, la perspicacité, l’épiphanie (c’est-à-dire la compréhension soudaine de l’essence et de la signification de quelque chose) et la contemplation sont quelques-unes des merveilleuses conséquences de notre capacité à lire la pensée d’un autre.

Pourquoi la lecture numérique est-elle différente ?

Est-ce que ce que nous savons de notre cerveau lecteur éclaire ce que nous ne savons pas de la lecture à l’heure de la culture numérique ? Quelles sont les implications profondes sur la plasticité de nos circuits de lecture à mesure que nous utilisons des médiums dominés par le numérique ?

En 2008, dans une interview pour Wired, quelques mois avant d’écrire son célèbre article, "Est-ce que Google nous rend idiot ?", Nicholas Carr expliquait : "La chose la plus effrayante dans la vision de Stanley Kubrick n’était pas que les ordinateurs commencent à agir comme les gens, mais que les gens commencent à agir comme des ordinateurs. Nous commençons à traiter l’information comme si nous étions des noeuds, tout est question de vitesse de localisation et de lecture de données. Nous transférons notre intelligence dans la machine, et la machine transfère sa façon de penser en nous."

Les caractéristiques cognitives de la lecture en ligne ne sont pas les mêmes que celle de la lecture profonde, estime Maryanne Wolf. Avec le numérique, notre attention et notre concentration sont partielles, moins soutenues. Notre capacité de lecture se fixe sur l’immédiateté et la vitesse de traitement. Nous privilégions une forme de lecture qui nous permet de faire plusieurs tâches en même temps dans des larges ensembles d’information. Les supports numériques ont tendance à rendre notre lecture physique (tactile, interactions sensorielles…) tandis que le lire nous plonge plutôt dans un processus cognitif profond. Pour la spécialiste, il semble impossible de s’immerger dans l’hypertexte. Reprenant les propos de Carr, "l’écrémage est la nouvelle normalité", assène-t-elle. "Avec le numérique, on scanne, on navigue, on rebondit, on repère. Nous avons tendance à bouger, à cliquer et cela réduit notre attention profonde, notre capacité à avoir une lecture concentrée. Nous avons tendance à porter plus d’attention à l’image. Nous avons tendance à moins internaliser la connaissance et à plus dépendre de sources extérieures."

Les travaux d’imagerie cérébrale sur les effets cognitifs du multitâche montrent que même si on peut apprendre en étant distraits cela modifie notre façon d’apprendre rendant l’apprentissage moins efficace et utile estime le professeur de psychologie et neurobiologie Russ Poldrack. Les facteurs tactiles et matériels ont aussi une importance. On ne peut s’immerger dans l’hypertexte de la même façon qu’on pouvait se perdre dans un livre, estime la spécialiste de la lecture Anne Mangen du Centre sur la lecture de l’université de Stavanger. Plusieurs études ont montré que notre niveau de compréhension entre l’écran et l’imprimé se faisait toujours au détriment du numérique, rappelle Maryanne Wolf. Mais peut-être faudrait-il nuancer les propos de Maryanne Wolf et souligner, comme nous l’avions déjà rappelé lors de la publication de la charge de Nicholas Carr que les les protocoles d’expérimentation des neuroscientifiques défendent souvent des thèses. La science et l’imagerie médicale semblent convoquées pour apporter des preuves. Alors que les différences de protocoles entre une étude l’autre, la petitesse des populations étudiées, nécessiterait beaucoup de prudence dans les conclusions.

Reste que pour comprendre cette différence entre papier et électronique, estime Maryanne Wolf, il nous faut comprendre comment se forme notre capacité de lecture profonde. Est-ce que la lecture superficielle et notre attente continue d’informations externes seront les nouvelles menaces des lectures numériques ? Ces deux risques vont-ils court-circuiter notre "cerveau lecteur" ? Est-ce que la construction de l’imaginaire de l’enfance va être remplacée par celle, externe, que tous les nouveaux supports offrent ? …

"Nous ne reviendrons pas en arrière, nous ne reviendrons pas à un temps prénumérique", insiste Maryanne Wolf. "Ce n’est ni envisageable, ni enviable, ni faisable."

"Mais nous ne devrions pas accepter une embardée vers l’avant sans comprendre ce que le "répertoire cognitif" de notre espèce risque de perdre ou de gagner."
 "Ce serait une honte si la technologie la plus brillante que nous ayons développée devait finir par menacer le genre d’intelligence qui l’a produite", estime l’historien des technologies Edward Tenner. Et Maryanne Wolf de nous montrer trois enfants assis dans un canapé, avec chacun son ordinateur sur ses genoux. C’est l’image même qui inspire notre peur de demain. Celle-là même qu’évoquait l’anthropologue Stefana Broadbent à Lift 2012. Sauf que l’anthropologue, elle, nous montrait qu’on était là confronté là à une représentation sociale… une interrogation totalement absente du discours alarmiste de Maryanne Wolf, qui compare l’activité cognitive de cerveaux habitués à la lecture traditionnelle, avec celle de cerveaux qui découvrent les modalités du numérique.

Le numérique a bien un défaut majeur, celui d’introduire dans notre rapport culturel même des modalités de distraction infinies. Comme nous le confiait déjà Laurent Cohen en 2009, l’écran ou le papier ne changent rien à la capacité de lecture. Mais c’est le réseau qui pose problème et ce d’autant plus quand il apporte une distraction permanente, permettant toujours de faire autre chose que ce que l’on compte faire.

Si la lecture profonde peut se faire tout autant sur papier qu’à travers le réseau, le principal problème qu’induit le numérique, c’est la possibilité de distraction induite par l’outil lui-même, qui demande, pour y faire face, un contrôle de soi plus exigeant.

Notre avenir cognitif en sursis ?

Alors, comment résoudre ce paradoxe, se demande Maryanne Wolf. Comment pouvons-nous éviter de "court-circuiter" notre capacité à lire en profondeur, tout en acquérant les nouvelles compétences nécessaires pour le 21e siècle ?

Un premier pas peut-être fait en ayant conscience de nos limites, estime Maryanne Wolf. Rappelons-nous que notre cerveau n’a jamais été programmé génétiquement pour lire. Que chaque lecteur doit construire ses propres circuits de lecture. Que nos circuits de lecture sont plastiques et influencés par les médiums et les systèmes d’écriture que nous utilisons. Notre cerveau-lecteur est capable à la fois des plus superficielles et des plus profondes formes de lecture, de ressenti et de pensées.

Nous pouvons deviner que l’accès à l’information ne va cesser d’augmenter. Mais nous ne savons pas si l’accès immédiat à de vastes quantités d’informations va transformer la nature du processus de lecture interne, à savoir la compréhension profonde et l’internalisation de la connaissance.

Pour le dire autrement, notre cerveau est d’une plasticité totale, mais cela ne veut pas dire que nous allons perdre telle ou telle capacité d’attention, alors que celles-ci ont plus que jamais une importance sociale. Pour l’instant, pourrions-nous répondre à Maryanne Wolf, ce que le cerveau lecteur nous a le plus fait perdre, c’est certainement notre capacité à lire les détails du monde naturel que comprenait le chasseur-cueilleur.

Nous ne savons pas si l’accès immédiat à cette quantité croissante d’information externe va nous éloigner du processus de lecture profonde ou au contraire va nous inciter à explorer la signification des choses plus en profondeur, estime Wolf en reconnaissant tout de même, après bien des alertes, l’ignorance des neuroscientifiques en la matière. Bref, nous ne savons pas si les changements qui s’annoncent dans l’intériorisation des connaissances vont se traduire par une altération de nos capacités cognitives, ni dans quel sens ira cette altération.

Si nous ne savons pas tout de notre avenir cognitif, estime Wolf, peut-être pouvons-nous conserver certains objectifs en vue. Que pouvons-nous espérer ? La technologie va bouleverser l’apprentissage, estime Maryanne Wolf en évoquant l’expérimentation qu’elle mène avec le MIT sur le prêt de tablettes auprès d’enfants éthiopiens qui n’ont jamais été alphabétisés et qui montre des jeunes filles capables de retenir l’alphabet qu’elles n’avaient jamais appris. Comment peut-on créer les conditions pour que les nouveaux lecteurs développent une double capacité… savoir à la fois quand il leur faut écrémer l’information et quand il leur faut se concentrer profondément ?

En semblant à la fois croire dans l’apprentissage par les robots, comme le montre l’expérience OLPC en Ethiopie de laquelle elle participe visiblement avec un certain enthousiasme (alors que certains spécialistes de l’éducation ont montré que l’essentielle des applications d’apprentissage de la lecture ne permettaient pas de dépasser le niveau de l’apprentissage de l’alphabet, en tout cas n’étaient pas suffisantes pour apprendre à lire seul) et en n’ayant de cesse de nous mettre en garde sur les risques que le numérique fait porter à la lecture profonde, Maryanne Wolf semble avoir fait un grand écart qui ne nous a pas aidés à y voir plus clair.

Après la langue et le langage : la cognition

Pour l’ingénieur et philosophe Christian Fauré, membre de l’association Ars Industrialis. "l’organologie générale" telle que définit par Ars Industrialis et le philosophe Bernard Stiegler, organisateur de ces rencontres, vise à décrire et analyser une relation entre 3 types d' "organes" qui nous définissent en tant qu’humain : les organes physiologiques (et psychologiques), les organes techniques et les organes sociaux.

"Nos organes physiologiques n’évoluent pas indépendamment de nos organes techniques et sociaux", rappelle Christian Fauré. Dans cette configuration entre 3 organes qui se surdéterminent les uns les autres, le processus d’hominisation semble de plus en plus porté, "transporté" par l’organe technique. Car dans un contexte d’innovation permanente, le processus d’hominisation, ce qui nous transforme en hommes, est de plus en plus indexé par l’évolution de nos organes techniques. La question est de savoir comment nos organes sociaux, psychologiques et physiologiques vont suivre le rythme de cette évolution. A l’époque de l’invention des premiers trains, les gens avaient peur d’y grimper, rappelle le philosophe. On pensait que le corps humain n’était pas fait pour aller à plus de 30 km à l’heure.

L’évolution que nous connaissons se produit via des interfaces entre les différents organes et c’est celles-ci que nous devons comprendre, estime Christian Fauré. Quel est le rôle des organes techniques et quels sont leurs effets sur nos organes sociaux et physiologiques ?L’écriture a longtemps été notre principal organe technique. Parce qu’elle est mnémotechnique, elle garde et conserve la mémoire. Par son statut, par les interfaces de publication, elle rend public pour nous-mêmes et les autres et distingue le domaine privé et le domaine public. Or l’évolution actuelle des interfaces d’écriture réagence sans arrêt la frontière entre le privé et le public. Avec le numérique, les interfaces de lecture et d’écriture ne cessent de générer de la confusion entre destinataire et destinateur, entre ce qui est privé et ce qui est public, une distinction qui est pourtant le fondement même de la démocratie, via l’écriture publique de la loi. Avec le numérique, on ne sait plus précisément qui voit ce que je publie… ni pourquoi on voit les messages d’autrui.

La question qui écrit à qui est devenue abyssale, car, avec le numérique, nous sommes passés de l’écriture avec les machines à l’écriture pour les machines. L’industrie numérique est devenue une industrie de la langue, comme le soulignait Frédéric Kaplan. Et cette industrialisation se fait non plus via des interfaces homme-machine mais via de nouvelles interfaces, produites par et pour les machines, dont la principale est l’API, l’interface de programmation, qui permet aux logiciels de s’interfacer avec d’autres logiciels.

Le nombre d’API publiée entre 2005 et 2012 a connu une croissance exponentielle, comme l’explique ProgrammableWeb qui en tient le décompte. Désormais, plus de 8000 entreprises ont un modèle d’affaire qui passe par les API. "Le web des machines émerge du web des humains. On passe d’un internet des humains opéré par les machines à un internet pour les machines opéré par les machines. L’API est la nouvelle membrane de nos organes techniques qui permet d’opérer automatiquement et industriellement sur les réseaux."

Ecrire directement avec le cerveau

Le monde industriel va déjà plus loin que le langage, rappelle Christian Fauré sur la scène des Entretiens du Nouveau Monde industriel. "Nous n’écrivons plus. Nous écrivons sans écrire, comme le montre Facebook qui informe nos profils et nos réseaux sociaux sans que nous n’ayons plus à écrire sur nos murs. Nos organes numériques nous permettent d’écrire automatiquement, sans nécessiter plus aucune compétence particulière. Et c’est encore plus vrai à l’heure de la captation de données comportementales et corporelles. Nos profils sont renseignés par des cookies que nos appareils techniques écrivent à notre place. Nous nous appareillons de capteurs et d’API "qui font parler nos organes". Les interfaces digitales auxquelles nous nous connectons ne sont plus des claviers ou des écrans tactiles… mais des capteurs et des données." Les appareillages du Quantified Self sont désormais disponibles pour le grand public. La captation des éléments physiologique s’adresse à nos cerveaux, comme l’explique Martin Lindstrom dans Buy.Ology. "Nous n’avons même plus besoin de renseigner quoi que ce soit. Les capteurs le font à notre place. Pire, le neuromarketing semble se désespérer du langage. On nous demande de nous taire. On ne veut pas écouter ce que l’on peut dire ou penser, les données que produisent nos capteurs et nos profils suffisent." A l’image des séries américaines comme Lie to Me ou the Mentalist où les enquêteurs ne s’intéressent plus à ce que vous dites. Ils ne font qu’observer les gens, ils lisent le corps, le cerveau. "L’écriture de soi n’est plus celle de Foucault, les échanges entre lettrés. On peut désormais s’écrire sans savoir écrire. Nous entrons dans une époque d’écriture automatique, qui ne nécessite aucune compétence. Nous n’avons même plus besoin du langage. L’appareillage suffit à réactualiser le connais-toi toi-même  !"

Google et Intel notamment investissent le champ des API neuronales et cherchent à créer un interfaçage direct entre le cerveau et le serveur. Le document n’est plus l’interface. Nous sommes l’interface !

"Que deviennent la démocratie et la Res Publica quand les données s’écrivent automatiquement, sans passer par le langage ? Quand la distinction entre le public et le privé disparaît ? Alors que jusqu’à présent, la compétence technique de la lecture et de l’écriture était la condition de la citoyenneté", interroge Christian Fauré.

Les capteurs et les interfaces de programmation ne font pas que nous quantifier, ils nous permettent également d’agir sur notre monde, comme le proposent les premiers jouets basés sur un casque électroencéphalographique (comme Mindflex et Star Wars Science The Force Trainer), casques qui utilisent l’activité électrique du cerveau du joueur pour jouer. Ces jouets sont-ils en train de court-circuiter notre organe physiologique ?

Mais, comme l’a exprimé et écrit Marianne Wolf, nous n’étions pas destinés à écrire. Cela ne nous a pas empêchés de l’apprendre. Nous sommes encore moins nés pour agir sur le réel sans utiliser nos organes et nos membres comme nous le proposent les casques neuronaux.

Quand on regarde les cartographies du cortex somatosensoriel on nous présente généralement une représentation de nous-mêmes selon l’organisation neuronale. Celle-ci déforme notre anatomie pour mettre en évidence les parties de celle-ci les plus sensibles, les plus connectés à notre cerveau. Cette représentation de nous est la même que celle que propose la logique des capteurs. Or, elle nous ressemble bien peu.

(Image extraite de la présentation de Christian Fauré : ressemblons à notre cortex somatosensoriel ?)

Que se passera-t-il demain si nous agissons dans le réel via des casques neuronaux ? La Science Fiction a bien sûr anticipé cela. Dans Planète interdite, le sous-sol de la planète est un vaste data center interfacé avec le cerveau des habitants de la planète qui ne donne sa pleine puissance que pendant le sommeil des habitants. "Ce que nous rappelle toujours la SF c’est que nos pires cauchemars se réalisent quand on interface l’inconscient à la machine, sans passer par la médiation de l’écriture ou du langage. Si la puissance du digital est interfacée et connectée directement aux organes physiologiques sans la médiation de l’écriture et du langage, on imagine alors à quel point les questions technologiques ne sont rien d’autre que des questions éthiques", conclut le philosophe.

Si on ne peut qu’être d’accord avec cette crainte de la modification du cerveau et de la façon même dont on pense via le numérique comme c’était le cas dans nombre d’interventions à cette édition des Entretiens du Nouveau Monde industriel, peut-être est-il plus difficile d’en rester à une dénonciation, comme l’a montré l’ambiguïté du discours de Maryanne Wolf. Si nous avons de tout temps utilisé des organes techniques, c’est dans l’espoir qu’ils nous libèrent, qu’ils nous transforment, qu’ils nous distinguent des autres individus de notre espèce et des autres espèces. Pour répondre à Christian Fauré, on peut remarquer que la SF est riche d’oeuvres qui montrent ou démontrent que l’augmentation de nos capacités par la technique était aussi un moyen pour faire autre chose, pour devenir autre chose, pour avoir plus de puissance sur le monde et sur soi. Il me semble pour ma part qu’il est important de regarder ce que les interfaces neuronales et les capteurs libèrent, permettent. Dans the Mentalist, pour reprendre la référence de Christian Fauré, ce sont les capacités médiumniques extraordinaires de l’enquêteur qui transforme son rapport au monde et aux autres. Si l’interfaçage direct des organes physiologique via des capteurs et des données produit de nouvelles formes de pouvoir, alors il est certain que nous nous en emparerons, pour le meilleur ou pour le pire. On peut légitimement le redouter ou s’en inquiéter, mais ça ne suffira pas à nous en détourner.

Qu’allons-nous apprendre en jouant de l’activité électrique de nos cerveaux ? On peut légitimement se demander ce que cela va détruire… Mais si on ne regarde pas ce que cela peut libérer, on en restera à une dénonciation sans effets.



 

Auteur: Guillaud Hubert

Info: https://www.lemonde.fr/blog/internetactu/2013/01/11/notre-cerveau-a-lheure-des-nouvelles-lectures/

[ communication ] [ réflexivité ] [ métalangage ] [ secondéités intégrées ] [ prospective ] [ niveaux de lecture ] [ citation s'appliquant à ce logiciel ] [ inversion ] [ triade ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier cognitif

Des physiciens observent une transition de phase quantique "inobservable"

Mesure et l'intrication ont toutes deux une saveur non locale "étrange". Aujourd'hui, les physiciens exploitent cette nonlocalité pour sonder la diffusion de l'information quantique et la contrôler.

La mesure est l'ennemi de l'intrication. Alors que l'intrication se propage à travers une grille de particules quantiques - comme le montre cette simulation - que se passerait-il si l'on mesurait certaines des particules ici et là ? Quel phénomène triompherait ?

En 1935, Albert Einstein et Erwin Schrödinger, deux des physiciens les plus éminents de l'époque, se disputent sur la nature de la réalité.

Einstein avait fait des calculs et savait que l'univers devait être local, c'est-à-dire qu'aucun événement survenant à un endroit donné ne pouvait affecter instantanément un endroit éloigné. Mais Schrödinger avait fait ses propres calculs et savait qu'au cœur de la mécanique quantique se trouvait une étrange connexion qu'il baptisa "intrication" et qui semblait remettre en cause l'hypothèse de localité d'Einstein.

Lorsque deux particules sont intriquées, ce qui peut se produire lors d'une collision, leurs destins sont liés. En mesurant l'orientation d'une particule, par exemple, on peut apprendre que sa partenaire intriquée (si et quand elle est mesurée) pointe dans la direction opposée, quel que soit l'endroit où elle se trouve. Ainsi, une mesure effectuée à Pékin pourrait sembler affecter instantanément une expérience menée à Brooklyn, violant apparemment l'édit d'Einstein selon lequel aucune influence ne peut voyager plus vite que la lumière.

Einstein n'appréciait pas la portée de l'intrication (qu'il qualifiera plus tard d'"étrange") et critiqua la théorie de la mécanique quantique, alors naissante, comme étant nécessairement incomplète. Schrödinger défendit à son tour la théorie, dont il avait été l'un des pionniers. Mais il comprenait le dégoût d'Einstein pour l'intrication. Il admit que la façon dont elle semble permettre à un expérimentateur de "piloter" une expérience autrement inaccessible est "plutôt gênante".

Depuis, les physiciens se sont largement débarrassés de cette gêne. Ils comprennent aujourd'hui ce qu'Einstein, et peut-être Schrödinger lui-même, avaient négligé : l'intrication n'a pas d'influence à distance. Elle n'a pas le pouvoir de provoquer un résultat spécifique à distance ; elle ne peut distribuer que la connaissance de ce résultat. Les expériences sur l'intrication, telles que celles qui ont remporté le prix Nobel en 2022, sont maintenant devenues monnaie courante.

Au cours des dernières années, une multitude de recherches théoriques et expérimentales ont permis de découvrir une nouvelle facette du phénomène, qui se manifeste non pas par paires, mais par constellations de particules. L'intrication se propage naturellement dans un groupe de particules, établissant un réseau complexe de contingences. Mais si l'on mesure les particules suffisamment souvent, en détruisant l'intrication au passage, il est possible d'empêcher la formation du réseau. En 2018, trois groupes de théoriciens ont montré que ces deux états - réseau ou absence de réseau - rappellent des états familiers de la matière tels que le liquide et le solide. Mais au lieu de marquer une transition entre différentes structures de la matière, le passage entre la toile et l'absence de toile indique un changement dans la structure de l'information.

"Il s'agit d'une transition de phase dans l'information", explique Brian Skinner, de l'université de l'État de l'Ohio, l'un des physiciens qui a identifié le phénomène en premier. "Les propriétés de l'information, c'est-à-dire la manière dont l'information est partagée entre les choses, subissent un changement très brutal.

Plus récemment, un autre trio d'équipes a tenté d'observer cette transition de phase en action. Elles ont réalisé une série de méta-expériences pour mesurer comment les mesures elles-mêmes affectent le flux d'informations. Dans ces expériences, ils ont utilisé des ordinateurs quantiques pour confirmer qu'il est possible d'atteindre un équilibre délicat entre les effets concurrents de l'intrication et de la mesure. La découverte de la transition a lancé une vague de recherches sur ce qui pourrait être possible lorsque l'intrication et la mesure entrent en collision.

L'intrication "peut avoir de nombreuses propriétés différentes, bien au-delà de ce que nous avions imaginé", a déclaré Jedediah Pixley, théoricien de la matière condensée à l'université Rutgers, qui a étudié les variations de la transition.

Un dessert enchevêtré

L'une des collaborations qui a permis de découvrir la transition d'intrication est née autour d'un pudding au caramel collant dans un restaurant d'Oxford, en Angleterre. En avril 2018, Skinner rendait visite à son ami Adam Nahum, un physicien qui travaille actuellement à l'École normale supérieure de Paris. Au fil d'une conversation tentaculaire, ils se sont retrouvés à débattre d'une question fondamentale concernant l'enchevêtrement et l'information.

Tout d'abord, un petit retour en arrière. Pour comprendre le lien entre l'intrication et l'information, imaginons une paire de particules, A et B, chacune dotée d'un spin qui peut être mesuré comme pointant vers le haut ou vers le bas. Chaque particule commence dans une superposition quantique de haut et de bas, ce qui signifie qu'une mesure produit un résultat aléatoire - soit vers le haut, soit vers le bas. Si les particules ne sont pas intriquées, les mesurer revient à jouer à pile ou face : Le fait d'obtenir pile ou face avec l'une ne vous dit rien sur ce qui se passera avec l'autre.

Mais si les particules sont intriquées, les deux résultats seront liés. Si vous trouvez que B pointe vers le haut, par exemple, une mesure de A indiquera qu'il pointe vers le bas. La paire partage une "opposition" qui ne réside pas dans l'un ou l'autre membre, mais entre eux - un soupçon de la non-localité qui a troublé Einstein et Schrödinger. L'une des conséquences de cette opposition est qu'en mesurant une seule particule, on en apprend plus sur l'autre. "La mesure de B m'a d'abord permis d'obtenir des informations sur A", a expliqué M. Skinner. "Cela réduit mon ignorance sur l'état de A."

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, tu mesurais certains spins ici et là ? Si tu les mesurais tous en permanence, l'intrication disparaîtrait de façon ennuyeuse. Mais si tu les mesures sporadiquement, par quelques spins seulement, quel phénomène sortira vainqueur ? L'intrication ou la mesure ?

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, on mesurait certains spins ici et là ? Les mesurer tous en permanence ferait disparaître toute l'intrication d'une manière ennuyeuse. Mais si on en mesure sporadiquement quelques spins seulement, quel phénomène sortirait vainqueur ? L'intrication ou la mesure ?

Skinner, répondit qu'il pensait que la mesure écraserait l'intrication. L'intrication se propage de manière léthargique d'un voisin à l'autre, de sorte qu'elle ne croît que de quelques particules à la fois. Mais une série de mesures pourrait toucher simultanément de nombreuses particules tout au long de la longue chaîne, étouffant ainsi l'intrication sur une multitude de sites. S'ils avaient envisagé cet étrange scénario, de nombreux physiciens auraient probablement convenu que l'intrication ne pouvait pas résister aux mesures.

"Selon Ehud Altman, physicien spécialiste de la matière condensée à l'université de Californie à Berkeley, "il y avait une sorte de folklore selon lequel les états très intriqués sont très fragiles".

Mais Nahum, qui réfléchit à cette question depuis l'année précédente, n'est pas de cet avis. Il imaginait que la chaîne s'étendait dans le futur, instant après instant, pour former une sorte de clôture à mailles losangées. Les nœuds étaient les particules, et les connexions entre elles représentaient les liens à travers lesquels l'enchevêtrement pouvait se former. Les mesures coupant les liens à des endroits aléatoires. Si l'on coupe suffisamment de maillons, la clôture s'écroule. L'intrication ne peut pas se propager. Mais jusque là, selon Nahum, même une clôture en lambeaux devrait permettre à l'intrication de se propager largement.

Nahum a réussi à transformer un problème concernant une occurrence quantique éphémère en une question concrète concernant une clôture à mailles losangées. Il se trouve qu'il s'agit d'un problème bien étudié dans certains cercles - la "grille de résistance vandalisée" - et que Skinner avait étudié lors de son premier cours de physique de premier cycle, lorsque son professeur l'avait présenté au cours d'une digression.

"C'est à ce moment-là que j'ai été vraiment enthousiasmé", a déclaré M. Skinner. "Il n'y a pas d'autre moyen de rendre un physicien plus heureux que de montrer qu'un problème qui semble difficile est en fait équivalent à un problème que l'on sait déjà résoudre."

Suivre l'enchevêtrement

Mais leurs plaisanteries au dessert n'étaient rien d'autre que des plaisanteries. Pour tester et développer rigoureusement ces idées, Skinner et Nahum ont joint leurs forces à celles d'un troisième collaborateur, Jonathan Ruhman, de l'université Bar-Ilan en Israël. L'équipe a simulé numériquement les effets de la coupe de maillons à différentes vitesses dans des clôtures à mailles losangées. Ils ont ensuite comparé ces simulations de réseaux classiques avec des simulations plus précises mais plus difficiles de particules quantiques réelles, afin de s'assurer que l'analogie était valable. Ils ont progressé lentement mais sûrement.

Puis, au cours de l'été 2018, ils ont appris qu'ils n'étaient pas les seuls à réfléchir aux mesures et à l'intrication.

Matthew Fisher, éminent physicien de la matière condensée à l'université de Californie à Santa Barbara, s'était demandé si l'intrication entre les molécules dans le cerveau pouvait jouer un rôle dans notre façon de penser. Dans le modèle que lui et ses collaborateurs étaient en train de développer, certaines molécules se lient occasionnellement d'une manière qui agit comme une mesure et tue l'intrication. Ensuite, les molécules liées changent de forme d'une manière qui pourrait créer un enchevêtrement. Fisher voulait savoir si l'intrication pouvait se développer sous la pression de mesures intermittentes - la même question que Nahum s'était posée.

"C'était nouveau", a déclaré M. Fisher. "Personne ne s'était penché sur cette question avant 2018.

Dans le cadre d'une coopération universitaire, les deux groupes ont coordonné leurs publications de recherche l'un avec l'autre et avec une troisième équipe étudiant le même problème, dirigée par Graeme Smith de l'université du Colorado, à Boulder.

"Nous avons tous travaillé en parallèle pour publier nos articles en même temps", a déclaré M. Skinner.

En août, les trois groupes ont dévoilé leurs résultats. L'équipe de Smith était initialement en désaccord avec les deux autres, qui soutenaient tous deux le raisonnement de Nahum inspiré de la clôture : Dans un premier temps, l'intrication a dépassé les taux de mesure modestes pour se répandre dans une chaîne de particules, ce qui a entraîné une entropie d'intrication élevée. Puis, lorsque les chercheurs ont augmenté les mesures au-delà d'un taux "critique", l'intrication s'est arrêtée - l'entropie d'intrication a chuté.

La transition semblait exister, mais il n'était pas évident pour tout le monde de comprendre où l'argument intuitif - selon lequel l'intrication de voisin à voisin devait être anéantie par les éclairs généralisés de la mesure - s'était trompé.

Dans les mois qui ont suivi, Altman et ses collaborateurs à Berkeley ont découvert une faille subtile dans le raisonnement. "On ne tient pas compte de la diffusion (spread) de l'information", a déclaré M. Altman.

Le groupe d'Altman a souligné que toutes les mesures ne sont pas très informatives, et donc très efficaces pour détruire l'intrication. En effet, les interactions aléatoires entre les particules de la chaîne ne se limitent pas à l'enchevêtrement. Elles compliquent également considérablement l'état de la chaîne au fil du temps, diffusant effectivement ses informations "comme un nuage", a déclaré M. Altman. Au bout du compte, chaque particule connaît l'ensemble de la chaîne, mais la quantité d'informations dont elle dispose est minuscule. C'est pourquoi, a-t-il ajouté, "la quantité d'intrication que l'on peut détruire [à chaque mesure] est ridiculement faible".

En mars 2019, le groupe d'Altman a publié une prépublication détaillant comment la chaîne cachait efficacement les informations des mesures et permettait à une grande partie de l'intrication de la chaîne d'échapper à la destruction. À peu près au même moment, le groupe de Smith a mis à jour ses conclusions, mettant les quatre groupes d'accord.

La réponse à la question de Nahum était claire. Une "transition de phase induite par la mesure" était théoriquement possible. Mais contrairement à une transition de phase tangible, telle que le durcissement de l'eau en glace, il s'agissait d'une transition entre des phases d'information - une phase où l'information reste répartie en toute sécurité entre les particules et une phase où elle est détruite par des mesures répétées.

C'est en quelque sorte ce que l'on rêve de faire dans la matière condensée, a déclaré M. Skinner, à savoir trouver une transition entre différents états. "Maintenant, on se demande comment on le voit", a-t-il poursuivi.

 Au cours des quatre années suivantes, trois groupes d'expérimentateurs ont détecté des signes du flux distinct d'informations.

Trois façons de voir l'invisible

Même l'expérience la plus simple permettant de détecter la transition intangible est extrêmement difficile. "D'un point de vue pratique, cela semble impossible", a déclaré M. Altman.

L'objectif est de définir un certain taux de mesure (rare, moyen ou fréquent), de laisser ces mesures se battre avec l'intrication pendant un certain temps et de voir quelle quantité d'entropie d'intrication vous obtenez dans l'état final. Ensuite, rincez et répétez avec d'autres taux de mesure et voyez comment la quantité d'intrication change. C'est un peu comme si l'on augmentait la température pour voir comment la structure d'un glaçon change.

Mais les mathématiques punitives de la prolifération exponentielle des possibilités rendent cette expérience presque impensablement difficile à réaliser.

L'entropie d'intrication n'est pas, à proprement parler, quelque chose que l'on peut observer. C'est un nombre que l'on déduit par la répétition, de la même manière que l'on peut éventuellement déterminer la pondération d'un dé chargé. Lancer un seul 3 ne vous apprend rien. Mais après avoir lancé le dé des centaines de fois, vous pouvez connaître la probabilité d'obtenir chaque chiffre. De même, le fait qu'une particule pointe vers le haut et une autre vers le bas ne signifie pas qu'elles sont intriquées. Il faudrait obtenir le résultat inverse plusieurs fois pour en être sûr.

Il est beaucoup plus difficile de déduire l'entropie d'intrication d'une chaîne de particules mesurées. L'état final de la chaîne dépend de son histoire expérimentale, c'est-à-dire du fait que chaque mesure intermédiaire a abouti à une rotation vers le haut ou vers le bas. Pour accumuler plusieurs copies du même état, l'expérimentateur doit donc répéter l'expérience encore et encore jusqu'à ce qu'il obtienne la même séquence de mesures intermédiaires, un peu comme s'il jouait à pile ou face jusqu'à ce qu'il obtienne une série de "têtes" d'affilée. Chaque mesure supplémentaire rend l'effort deux fois plus difficile. Si vous effectuez 10 mesures lors de la préparation d'une chaîne de particules, par exemple, vous devrez effectuer 210 ou 1 024 expériences supplémentaires pour obtenir le même état final une deuxième fois (et vous pourriez avoir besoin de 1 000 copies supplémentaires de cet état pour déterminer son entropie d'enchevêtrement). Il faudra ensuite modifier le taux de mesure et recommencer.

L'extrême difficulté à détecter la transition de phase a amené certains physiciens à se demander si elle était réellement réelle.

"Vous vous fiez à quelque chose d'exponentiellement improbable pour le voir", a déclaré Crystal Noel, physicienne à l'université Duke. "Cela soulève donc la question de savoir ce que cela signifie physiquement."

Noel a passé près de deux ans à réfléchir aux phases induites par les mesures. Elle faisait partie d'une équipe travaillant sur un nouvel ordinateur quantique à ions piégés à l'université du Maryland. Le processeur contenait des qubits, des objets quantiques qui agissent comme des particules. Ils peuvent être programmés pour créer un enchevêtrement par le biais d'interactions aléatoires. Et l'appareil pouvait mesurer ses qubits.

Le groupe a également eu recours à une deuxième astuce pour réduire le nombre de répétitions - une procédure technique qui revient à simuler numériquement l'expérience parallèlement à sa réalisation. Ils savaient ainsi à quoi s'attendre. C'était comme si on leur disait à l'avance comment le dé chargé était pondéré, et cela a permis de réduire le nombre de répétitions nécessaires pour mettre au point la structure invisible de l'enchevêtrement.

Grâce à ces deux astuces, ils ont pu détecter la transition d'intrication dans des chaînes de 13 qubits et ont publié leurs résultats à l'été 2021.

"Nous avons été stupéfaits", a déclaré M. Nahum. "Je ne pensais pas que cela se produirait aussi rapidement."

À l'insu de Nahum et de Noel, une exécution complète de la version originale de l'expérience, exponentiellement plus difficile, était déjà en cours.

À la même époque, IBM venait de mettre à niveau ses ordinateurs quantiques, ce qui leur permettait d'effectuer des mesures relativement rapides et fiables des qubits à la volée. Jin Ming Koh, étudiant de premier cycle à l'Institut de technologie de Californie, avait fait une présentation interne aux chercheurs d'IBM et les avait convaincus de participer à un projet visant à repousser les limites de cette nouvelle fonctionnalité. Sous la supervision d'Austin Minnich, physicien appliqué au Caltech, l'équipe a entrepris de détecter directement la transition de phase dans un effort que Skinner qualifie d'"héroïque".

 Après avoir demandé conseil à l'équipe de Noel, le groupe a simplement lancé les dés métaphoriques un nombre suffisant de fois pour déterminer la structure d'intrication de chaque historique de mesure possible pour des chaînes comptant jusqu'à 14 qubits. Ils ont constaté que lorsque les mesures étaient rares, l'entropie d'intrication doublait lorsqu'ils doublaient le nombre de qubits - une signature claire de l'intrication qui remplit la chaîne. Les chaînes les plus longues (qui impliquaient davantage de mesures) ont nécessité plus de 1,5 million d'exécutions sur les appareils d'IBM et, au total, les processeurs de l'entreprise ont fonctionné pendant sept mois. Il s'agit de l'une des tâches les plus intensives en termes de calcul jamais réalisées à l'aide d'ordinateurs quantiques.

Le groupe de M. Minnich a publié sa réalisation des deux phases en mars 2022, ce qui a permis de dissiper tous les doutes qui subsistaient quant à la possibilité de mesurer le phénomène.

"Ils ont vraiment procédé par force brute", a déclaré M. Noel, et ont prouvé que "pour les systèmes de petite taille, c'est faisable".

Récemment, une équipe de physiciens a collaboré avec Google pour aller encore plus loin, en étudiant l'équivalent d'une chaîne presque deux fois plus longue que les deux précédentes. Vedika Khemani, de l'université de Stanford, et Matteo Ippoliti, aujourd'hui à l'université du Texas à Austin, avaient déjà utilisé le processeur quantique de Google en 2021 pour créer un cristal de temps, qui, comme les phases de propagation de l'intrication, est une phase exotique existant dans un système changeant.

En collaboration avec une vaste équipe de chercheurs, le duo a repris les deux astuces mises au point par le groupe de Noel et y a ajouté un nouvel ingrédient : le temps. L'équation de Schrödinger relie le passé d'une particule à son avenir, mais la mesure rompt ce lien. Ou, comme le dit Khemani, "une fois que l'on introduit des mesures dans un système, cette flèche du temps est complètement détruite".

Sans flèche du temps claire, le groupe a pu réorienter la clôture à mailles losangiques de Nahum pour accéder à différents qubits à différents moments, ce qu'ils ont utilisé de manière avantageuse. Ils ont notamment découvert une transition de phase dans un système équivalent à une chaîne d'environ 24 qubits, qu'ils ont décrite dans un article publié en mars.

Puissance de la mesure

Le débat de Skinner et Nahum sur le pudding, ainsi que les travaux de Fisher et Smith, ont donné naissance à un nouveau sous-domaine parmi les physiciens qui s'intéressent à la mesure, à l'information et à l'enchevêtrement. Au cœur de ces différentes lignes de recherche se trouve une prise de conscience croissante du fait que les mesures ne se contentent pas de recueillir des informations. Ce sont des événements physiques qui peuvent générer des phénomènes véritablement nouveaux.

"Les mesures ne sont pas un sujet auquel les physiciens de la matière condensée ont pensé historiquement", a déclaré M. Fisher. Nous effectuons des mesures pour recueillir des informations à la fin d'une expérience, a-t-il poursuivi, mais pas pour manipuler un système.

En particulier, les mesures peuvent produire des résultats inhabituels parce qu'elles peuvent avoir le même type de saveur "partout-tout-enmême-temps" qui a autrefois troublé Einstein. Au moment de la mesure, les possibilités alternatives contenues dans l'état quantique s'évanouissent, pour ne jamais se réaliser, y compris celles qui concernent des endroits très éloignés dans l'univers. Si la non-localité de la mécanique quantique ne permet pas des transmissions plus rapides que la lumière comme le craignait Einstein, elle permet d'autres exploits surprenants.

"Les gens sont intrigués par le type de nouveaux phénomènes collectifs qui peuvent être induits par ces effets non locaux des mesures", a déclaré M. Altman.

L'enchevêtrement d'une collection de nombreuses particules, par exemple, a longtemps été considéré comme nécessitant au moins autant d'étapes que le nombre de particules que l'on souhaitait enchevêtrer. Mais l'hiver dernier, des théoriciens ont décrit un moyen d'y parvenir en beaucoup moins d'étapes grâce à des mesures judicieuses. Au début de l'année, le même groupe a mis l'idée en pratique et façonné une tapisserie d'enchevêtrement abritant des particules légendaires qui se souviennent de leur passé. D'autres équipes étudient d'autres façons d'utiliser les mesures pour renforcer les états intriqués de la matière quantique.

Cette explosion d'intérêt a complètement surpris Skinner, qui s'est récemment rendu à Pékin pour recevoir un prix pour ses travaux dans le Grand Hall du Peuple sur la place Tiananmen. (Skinner avait d'abord cru que la question de Nahum n'était qu'un exercice mental, mais aujourd'hui, il n'est plus très sûr de la direction que tout cela prend.)

"Je pensais qu'il s'agissait d'un jeu amusant auquel nous jouions, mais je ne suis plus prêt à parier sur l'idée qu'il n'est pas utile."

Auteur: Internet

Info: Quanta Magazine, Paul Chaikin, sept 2023

[ passage inversant ] [ esprit-matière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

parapsychologie

Le pays des aveugles de Koestler (II) (première partie ici)

La section précédente a peut-être donné au lecteur un sentiment de déjà-vu, parce que tout à l'heure j'ai mentionné un autre type de "théorie du filtre" liée à l'évolution. Je me réfère à la théorie néo-darwinienne selon laquelle la substance héréditaire dans les cellules germinales est protégée par une barrière quasi inviolable contre les influences en provenance de l'extérieur. Le "presque" se réfère à l'exception des rayons cosmiques, de la chaleur et des produits chimiques nocifs, qui pourraient pénétrer la barrière et causer des mutations dans les gènes. La plupart d'entre elles sont nuisibles, mais de temps en temps il y a des coups de chance, et cela, grâce à la sélection naturelle, permet à la roue de l'évolution de continuer sa marche. Hors cela, toute possibilité qu'une caractéristique acquise devienne héréditaire est empêchée par cette barrière. Le lamarckisme qui postulait que des améliorations bénéfiques pour les corps ou les compétences acquises par les parents pourraient être transmises à la descendance, doit être écarté comme superstition scientifique. Telle est la doctrine néo-darwinienne. Et pourtant, certains phénomènes évolutifs, cités à maintes reprises dans la littérature, semblent indiquer obstinément un facteur d'évolution lamarckienne.

Un exemple simple en est la peau sur la plante de nos pieds, qui est beaucoup plus épaisse que partout ailleurs. Si l'épaississement s'était produit pendant que le bébé a appris à marcher, il n'y aurait pas de problème. Mais l'épaississement est hérité, le bébé est né avec. Également curieuses sont les callosités innées sur le genou du chameau, et les épaississements bulbeux sur le cul de l'autruche, un à l'avant et un à l'arrière. Ils sont aussi, comme la peau de nos semelles, déjà présents dans l'embryon et sont incontestablement des caractéristiques héritées. Pourtant, en conformité avec le dogme dominant, on nous demande de croire que l'avènement de ces callosités à l'endroit exact où l'animal en a besoin est dû au hasard pur - comme le scarabée apparaissant à la fenêtre de Jung. On pourrait presque remplacer l'ESP par l'IAC (hérédité des caractères acquis) et voir émerger le même schéma d'arguments, et les mêmes passions quasi théologiques qui les accompagnent. Les lamarckiens se sont retrouvés dans une situation similaire à celle des parapsychologues : ils ont été incapables de produire une expérience reproductible. Les cas de IAC apparents dans le règne animal étaient rares, les phénomènes étaient capricieux, chaque cas apparemment net permettait des interprétations différentes et en dernier recours, à des accusations de fraude. En outre, bien que les lamarckiens étaient convaincus que IAC avait lieu, ils furent incapables d'en fournir une explication physiologique - comme les parapsychologues sont incapables de fournir une explication physique de l'ESP.

Ce curieux parallèle semble avoir échappé à l'attention des lamarckiens et des parapsychologues - Je n'ai pas vu mentionné dans la littérature. Peut-être qu'une hérésie c'est assez pour un seul homme. Paul Kammerer partageait les deux à la fois, et pourtant, lui aussi, semble n'avoir pas été au courant de la connexion entre eux. Portons l'analogie un peu plus loin. Dans "The Ghost in the Machine" et "The Case of the Midwife Toad", j'ai examiné les raisons d'un mécontentement croissant avec la théorie néo-darwinienne chez les biologistes contemporains, qui croient que la théorie reflète une partie de l'image, mais pas l'ensemble du tableau, et qui maintiennent que l'évolution des espèces est le résultat combiné d'un éventail de facteurs étiologiques connus, la plupart d'entre eux restant inconnus.

L'héritage de Darwin, et une forme modifiée de l'héritage de Lamarck, peuvent-être deux de ces facteurs à des extrémités opposées du spectre, avec un champ limité d'application à la fois. La IAC Lamarckienne serait un évènement relativement rare - pour la même raison que les phénomènes ESP sont rares: le fonctionnement des filtres de protection. Ceux-ci ne constitueraient pas la barrière absolue prévue par la théorie orthodoxe, mais un des mécanismes sélectifs, pour protéger le matériel héréditaire contre la "floraison et la confusion bourdonnante" des incursions biochimiques qui, autrement, feraient des ravages mettant en cause la continuité et la stabilité de l'espèce. Car si toutes les expériences des ancêtres laissaient des traces héréditaires à leur descendance, le résultat serait inévitablement un chaos de formes et un bordel des instincts. Mais cela ne signifie pas que nous devions exclure la possibilité que certaines modifications bien définies, adaptations intentionnelles - comme les callosités de l'autruche - qui ont été acquises génération après génération, finissent par passer à travers le filtre pour conduire à des changements dans la chimie des gènes en les rendant héréditaires. Il semble très peu probable que le filogenia ne doive posséder aucun souvenir.

La biochimie n'exclut pas la possibilité ci-dessus, et l'insistance presque fanatique de son rejet n'est qu'un exemple de plus de l'intolérance dogmatique de l'orthodoxie scientifique. (Mais : un membre éminent de l'établissement, le professeur Waddington, a effectivement proposé il y a quelques années un modèle provisoire pour l'IAC, ce qui indique que, au stade actuel de la biochimie un tel processus est envisageable.) Il nous faut faire ici une dernière excursion en physique - mais cette fois d'un genre très élémentaire.

Sur l'ombre du bureau en face de moi il y a l'ombre d'un cendrier. De manière ordinaire, il est tout à fait un objet sensible, solide, un tout en soi, sans "non-sens quantique" à son sujet. Mais quand je le soulève, je sens son poids, ce qui signifie qu'il est soumis à une influence assez mystérieuse que nous appelons le champ gravitationnel de la Terre. Et quand je le pousse, il résiste. Ceci est en partie dû au frottement contre le bureau, mais en partie aussi à l'inertie du cendrier massif. Maintenant, l'inertie est définie, selon la première loi du mouvement de Newton, comme la tendance d'un corps à préserver son état de repos ou de mouvement uniforme dans une direction donnée. Mais, si je devais suspendre ce cendrier par un fil au plafond, et en faire une réplique du pendule de Foucault aux Invalides à Paris, le plan de ses oscillations ne resterait pas figé dans la direction donnée, selon le principe que l'inertie nécessite, mais il tournerait lentement, complétant un tour en vingt-quatre heures.

Nous expliquons que c'est causé par la rotation de la terre, et que le pendule cendrier ne fait que préserver sa direction par rapport aux étoiles fixes, donc tout va bien. Toutefois, étant donné que tout mouvement est relatif, nous sommes en droit de considérer la terre comme au repos, avec des étoiles fixes tournant autour d'elle - comme l'imaginaient les anciens, et si c'est le cas, pourquoi les mouvements de mon cendrier doivent-ils être régis par les étoiles, et pas par la terre au-dessous ?

Le même argument s'applique à l'aplatissement des pôles de la terre, ainsi qu'à la force de Coriolis qui soi-disant dévie les missiles, les avions à réaction et les alizés de leur droite inertielle. Tous ces exemples semblent démontrer que la rotation de la terre est absolue et non relative. Ce paradoxe fut souligné par Bishop Berkeley, puis par le physicien allemand Ernst Mach (qui donna nom aux unités de vitesse supersonique). La réponse de Mach c'est que nous sommes en effet en droit de considérer la terre comme au repos, et d'expliquer les phénomènes que nous attribuons à sa rotation, comme causés en quelque sorte par les étoiles fixes et les galaxies - donc, par la masse de l'univers qui nous entoure.

Selon cette théorie, connue comme principe de Mach, c'est l'univers qui nous entoure qui détermine la direction du pendule de Foucault, et régit ainsi les forces d'inertie de la planète responsables de l'aplatissement des pôles. Einstein a repris le principe de Mach et a postulé que l'inertie des corps terrestres n'est qu'une autre manifestation de la gravité, non causé par les étoiles en tant que telles, mais plutôt de leur rotations. C'est la théorie qui prévaut aujourd'hui.

Donc comment la rotation des étoiles donne de l'inertie à mon cendrier reste une pure conjecture. L'inertie est le plus tangible, terre-à-terre, des phénomènes de notre vie quotidienne: vous l'éprouvez chaque fois que vous poussez un meuble. Et pourtant, il a maintenant été démontré que sa résistance aux déplacements est due au fait que nous sommes entouré par la masse en rotation de l'univers.

En 1927, Bertrand Russell, qui souscrivait néanmoins à la relativité einsteinienne, s'est senti poussé à protester ainsi : - On fait valoir que "rotation absolue" peut être remplacée par une "rotation par rapport aux étoiles fixes". Ce qui est formellement correct, mais dire que cette influence vient des étoiles de l'astronomie est scientifiquement incroyable. Whitehead écrit dans la même veine: Il est difficile de prendre au sérieux l'idée que ces phénomènes internes sur terre soient dus à l'influence d'étoiles dans le ciel. Je ne puis me résoudre à croire qu'une petite étoile scintillant dans sa tournée dirige le pendule de Foucault lors de l'exposition de Paris de 1851.

Ainsi, même mon cendrier est un holon, après tout. Ce n'est pas seulement un cendrier ombre sur un bureau ombre Eddington, mais d'une certaine façon, à laquelle ni Einstein ni Mach ne se hasardèrent à donner une explication causale, ses propriétés d'inertie sont reliées à la masse entière de l'univers qui l'entoure. On pourrait aussi bien l'appeler cendrier Mirandole, en se rappelant le passage cité plus tôt: premièrement, il y a l'unité dans les choses où chaque objet est en harmonie avec lui-même, se compose de lui-même, et est cohérent avec lui-même. Deuxièmement, il y a l'unité selon lequel une créature est unie avec les autres, et toutes les parties du monde constituent un tout. C'est le principe même du holon.

Nous avons entendu un choeur entier de lauréats du Nobel de physique nous informer que la matière était morte, de même pour la causalité et le déterminisme. Si c'est le cas, laissez-nous leur donner une sépulture décente, avec un requiem de musique électronique. Il est temps pour nous de tirer les leçons d'un XXe siècle de sciences post-mécanistes et de sortir du carcan que le XIXe siècle matérialiste a imposé à notre perspective philosophique. Paradoxalement, si cette perspective était restée aux côtés de la science moderne elle-même, au lieu de trainer avec un siècle de retard, nous aurions été libérés de cette camisole de force il y a bien longtemps. Il a été dit que la science sait de plus en plus sur de moins en moins. Mais cela s'applique uniquement au processus de spécialisation. On serait tout aussi fondés à dire que nous savons de moins en moins sur de plus en plus.

Cela vaut tout autant pour la procédure de l'unification de la matière et de l'énergie que pour les particules et les ondes, tout ceci dans le delta conceptuel d'une rivière qui se déplace majestueusement dans un océan d'abstractions. Plus la science acquiert des connaissances précises, plus les symboles qu'elle utilise deviennent insaisissables. La chasse au quark commence à ressembler à une quête mystique dans un nuage d'inconnaissance. La science se révèle être la réalisation la plus glorieuse de l'esprit humain - et sa défaite la plus alléchante. Nous sommes devenus bien plus malins depuis Pic de la Mirandole, mais pas beaucoup plus sages quand il s'agit de savoir ce que tout cela signifie. Une fois ceci reconnu, nous pourrions devenir plus réceptifs aux phénomènes qui nous entourent et que de manière unilatérale la science physique nous fait ignorer, pour sentir le courant qui souffle au travers des fentes de l'édifice de la causalité; et accorder plus d'attention aux évènements confluentiels, comprendre les phénomènes paranormaux dans notre concept de normalité, et se rendre compte que nous vivons dans le "royaume des aveugles".

Les conséquences d'un tel changement de conscience ne sont pas prévisibles, et on ne peut s'empêcher de sympathiser avec la déclaration du professeur H. H. Price comme quoi la "recherche psychique est l'une des branches les plus importantes d'enquête que l'esprit humain ait entrepris"; il semble important "de mettre en lumière toute nouvelle sur la nature de la personnalité humaine et sa position dans l'univers", et en même le temps "cela transformera les perspectives et fondations intellectuelles dont dépend toute notre civilisation actuelle".

Ce sont des mots forts d'un professeur d'Oxford en philosophie, mais je ne pense pas qu'il exagère. Ce qu'ils impliquent c'est un plaidoyer pour faire de la parapsychologie, et plus généralement de l'étude de ce que j'ai appelé les "évènements confluentiels" avec un substrat académique respectable et attrayant pour les étudiants, tant professionnels qu'en matières facultatives. Une fois qu'il y aura autant de chercheurs brillants engagés dans ce domaine comme cela existe maintenant pour l'étude de comportements de rats, une percée pourra être en vue. Dans la science-fiction, il est tenu pour acquis que la communication télépathique et la manipulation de la matière psychokinétique seront monnaie courante dans un avenir pas trop lointain, et la science-fiction s'est avéré être une prophétesse étonnamment fiable. Une autre de ses hypothèses courantes est que des êtres intelligents d'autres planètes de l'univers ont une maîtrise avancée de ces méthodes. Il est également possible, cependant, que dans ce domaine particulier, nous soyons une espèce sous-privilégiée - avec nos handicaps propres.

Le grand dessein de l'évolution vers des formes supérieures de l'unité dans la diversité n'exclut pas monstres et autres ratés biologiques, ni leurs évolutions pathologiques. Je ne pense pas que l'univers soit une institution charitable, mais nous devons vivre en lui et en tirer le meilleur parti. Les limites de notre matériel biologique nous condamnent peut-être au simple rôle de spectateurs devant la serrure de l'éternité. Mais au moins, retirons ce qui, devant ou dans la serrure, limite encore notre point de vue. [Note : Dans la vaste littérature sur la parapsychologie contemporaine, j'ai été particulièrement impressionné par les écrits de deux femmes - Rosalind Heywood, à qui ce livre est dédié, et Renee Haynes, auteur de The Hidden Springs et le roi philosophe, et rédactrice en cheffe du Journal de la Society for Psychical Research.

En écrivant cet essai sur un champ où même les anges craignent de marcher, j'ai avancé avec grande prudence, essayant surtout m'en tenir aux résultats expérimentaux de recherche en laboratoire, omettant toutes les soi-disant "preuves anecdotiques" - c'est-à-dire les manifestations spontanées de phénomènes parapsychologiques de la vie courante qui ne constituent pas des preuves au sens strict. En relisant ces pages avant impression, je sentais que ces limites self-imposées donnent lieu à une certaine partialité, et j'ai demandé à Renee Haynes de rétablir l'équilibre sous la forme d'un post-scriptum. Je lui suis donc reconnaissant d'avoir ajouté ainsi une saveur Yin Yang à mon austère travail.

(Post-scriptum par Renee Haynes)

M. Koestler nous a donné un exposé lucide de données modernes comme l'espace, le temps, la matière, la causalité, la neurophysiologie et la recherche psychique. Une remarquable synthèse en émerge. Son concept de "Janus-faced holons" pourrait bien se révéler comme un vrai stimulant pour notre génération comme le fut l'Elan Vital de Bergson pour les penseurs de la première partie du 20ème siècle. Il est à la fois gratifiant et grandiose être mandé pour écrire l'épilogue d'un tel travail, surtout afin qu'il suscite une discussion ultérieure. Si cet épilogue touche parfois à l'argumentaire, j'espère qu'on me le pardonnera.

J'ai été impressionné par la description de M. Koestler de la physique contemporaine. Avec ses termes infiniment abstraits, ses interactions mathématiques vérifiables, son univers visible, la danse de l'énergie, les choses prévisible et les folies imprévisibles, tantôt ici, tantôt là, maintenant nulle part et ensuite de retour, explosant tout le réseau propre à la pensée de Newton. C'est par ailleurs un exemple fascinant de synchronicité que deux physiciens et parapsychologues en viennent à utiliser le terme psi pour indiquer ce qui est encore inconnu; un curieux flash verbal qui pourrait servir à indiquer un terrain d'entente entre les deux disciplines. Pour moi, cependant, comme pour beaucoup d'autres, l'imagerie mathématique qui vient naturellement au calculateur est beaucoup plus difficile à comprendre, à rapporter à l'expérience de vie, que celle donnée par l'impact immédiat des sens.

Il est plus facile pour des gens comme nous de penser dans l'idiome d'une perception "ordinaire", ce processus monnaie courante, que dans le langage de formules algébriques, quelle que soit leur vérité et leur élégance. C'est par l'imagerie de la vue, l'ouïe, le toucher, l'odorat, la température, que la connaissance paranormale, comme la mémoire, apparait souvent dans l'esprit conscient (souvent, mais pas toujours. Ce peut être une impression soudaine que quelque chose s'est passé, ou pas plus qu'une impulsion inexplicable pour agir, courir hors d'une maison qui sera bientôt bombardé, ou entreprendre une tâche fastidieuse de voyage en cross-country pour voir un enfant à l'école, qui se révèle être tout à coup, dangereusement malade. (Cf. Cf. Arm Bridge, Moments of Knowing. London, 1970)

Pour cette raison, je tiens à souligner la valeur des phénomènes spontanés à la recherche psychique. Aussi déroutants, irremplaçables, uniques et personnels que de tels évènements puissent être, fait est qu'ils ne se produisent, que des hallucinations, certaines impressions de veille ou des rêves d'apparence réelle peuvent être mis en corrélation avec des évènements objectifs inconnus à la personne concernée, très éloignée ou il y a longtemps ou pas encore adoptée, a été maintes fois dit clairement, à la fois avant et après l'enquête systématique qui a débuté dans les années 1880. Même maintenant, bien sûr, de tels évènements sont souvent rejetés au mieux comme "anecdotiques", ou comme racontars de vieilles femmes, voire comme absurdités superstitieuses. De même, ce rapport tout à fait exact que les habitants de St. Kilda attrapèrent un rhume que quand un navire vint, fait rapporté par le Dr Johnson comme étant contraire à tout bon sens, ne fut accepté comme un état de fait que quand la théorie des germes de la maladie furent mis en place. Beaucoup de cas spontanés du paranormal - prise de conscience télépathique, "apparitions" perçues alors que la personne "vue" se trouvait en danger ou en train de mourir, apparition soudaine d'une douleur inexplicable au moment où est vécue de façon inattendue par une personne aimée au loin - ont été vérifié et selon des normes de preuve acceptables par une cour de justice. Tout cela donne du poids à un nombre toujours plus grand d'autres cas qui, bien que le narrateur ne le sache pas, tombent dans le même schéma, comme le Dr Louisa Rhine et d'autres l'ont fait remarquer. (Cf. Louisa Rhine, Hidden Channels of the Mind. London, 1962, and G. W. Lambert's Foreword to Andrew MacKenzie, Ghosts and Apparitions. London, 1971.)

La perception extra-sensorielle Spontanée se produit très certainement non seulement chez les humains, qui ont des mots pour décrire leurs expériences, mais chez les animaux, dont les sentiments ne peuvent être évalués que par leur apparence et leur comportement. Ce n'est pas toujours facile à interpréter parce que beaucoup d'entre eux ont des pouvoirs sensoriels qui nous manquent. Des rats adultes, par exemple, peuvent "sentir" les rayons X. Des bébés rongeurs d'une autre race ont été montré comme pouvant communiquer par ultrasons avec leurs mères, comme les dauphins de tous âges le font parfois les uns avec les autres. Ainsi comme il aurait été facile et faux - de produire une explication paranormale à cet épisode observé dans "la maison de l'attaché militaire américain d'une capitale étrangère non identifié". Le chien de la famille, hurlant et gémissant et "de toute évidence en souffrance, semblait être dans un vrai combat contre un ennemi dans le coin de la pièce". Les planchers furent enlevés et on trouva "un dispositif de transmission radio pour toutes les conversations dans la chambre". Lorsqu'il était allumé, il produisait un son trop aigu pour que l'oreille humaine l'entende, mais qui tourmentait le chien.

Mais il y a tout de même, bien authentifiés, des cas de comportement animaux qui semblent seulement donner sens qu'en termes de paranormal. Comme le chien ou le chat domestique qui, pris dans un panier fermé en voiture ou en train sur de longues distances, revient par le plus direct des cross-countries à la maison. Il y a ce récent rapport de la presse française d'un chien appartenant à un ouvrier qui l'avait quitté avec sa famille alors qu'il avait été envoyé dans une autre partie du pays pour une affectation temporaire. Le chien disparut de la maison et plus tard, mince et épuisé, il retrouvait son maître dans un endroit où il n'avait jamais été auparavant. Il y a aussi ces épisodes fréquents dans lesquels chiens ou les chats semblent être au courant de ce qui se passe à distance et deviennent surexcités dans leurs chenils au moment précis où leurs propriétaires commencent leur voyage de retour de vacances. Quelle que soit la distance. Il y a encore cet autre parallèle à faire entre les humains et les autres êtres vivants.

Comme JD Carthy l'a dit: "les animaux ne réagissent pas automatiquement à un signal, mais seulement si leur motivation est grande. Un animal repu ne réagit pas à un appel alimentaire. "M. Koestler a noté un angle différent (p.128 et suivantes) Que cela s'applique à l'homme ainsi que les animaux, dans la vie ordinaire que dans des conditions expérimentales. Ainsi, dans une rue animée d'un petit garçon d'un tour mécanique remarquerez marques de voitures, spécialiste de l'urbanisme de la circulation, une femme anxieuse de se croiser avec un enfant fatigué le mépris collectif impersonnel des pilotes pour ceux pied sur. En est de même de la perception extrasensorielle. En cela aussi, les gens deviennent très conscients de ce qui concerne eux-mêmes et leurs sentiments personnels. Pour évoquer une réponse instantanée forte de toute créature vivante un signal, sensorielle ou extra-sensorielle, doit être pertinente, pertinents aux besoins biologiques, à un stress émotionnel, à ce que Gerard Manley Hopkins appelé paysage intérieur.

C'est bien sûr pourquoi les expériences reproductibles dans la recherche psychique sont si difficiles à atteindre. L'intérêt qui pousse les gens à y participer est érodé par la répétition mécanique ennuyeuse, et l'effet de déclin qui se manifeste, tôt ou tard, en conformité avec les tempéraments, les humeurs et les relations personnelles des personnes concernées. Mis à part l'ennui cumulatif qu'elles engendrent par ailleurs, les expériences avec les cartes, les dés, des lumières et ainsi de suite ne tiennent pas compte de l'ambiance au sein de laquelle fonctionne l'esprit humain. Comme on l'a fait remarquer, "la cognition Paranormale est symbolique d'une manière associative; ainsi, M. Jones pourrait être impliqué dans un rêve ou la cognition paranormale parle d'un lion parce qu'il vit près du zoo, a un tempérament de lion ou une relation appelée Leo.

Pour des cartes à deviner avec un pack ordinaire le percipient pour marquer un coup direct dois dire littéralement "le dix de pique". La remarque "Dix hommes honnêtes" [qui appellent un chat un chat] serait considérée comme totalement hors de propos. Le premier groupe d'expériences au Laboratoire de rêve du Centre Maimonides Medical, * 1 résumée aux pages 37-8, allait dans le sens en vue de corriger cette difficulté, mais leurs résultats, bien que suggestifs, étaient difficiles à évaluer. C'est en partie parce que le pouvoir de visualiser varie donc considérablement d'une personne à une autre. Certaines personnes ont une mémoire photographique, un certain sélective, certains peuvent se rappeler le nom, mais pas les apparences des choses. En plus de tout ça tout le monde perçoit et exprime ses sentiments à travers un réseau d'associations, d'images et de symboles uniques à sa propre personne, d'autres découlent de son modèle de culture, la plupart des événements de sa vie individuelle. Une série d'expériences plus tard * en utilisant des cibles moins spécifiques - et pas seulement des images mais des sujets généraux tels que les religions d'Extrême-Orient, les productions artistiques des schizophrènes, la naissance d'un bébé, toutes illustrées pour l'agent par des vues et des bruits - semble avoir contourné certains des problèmes précédents. Il semble que cette méthode ait vraiment été couronnée de succès dans la communication télépathique sur l'humeur et la qualité d'une expérience. 

Cette question de la qualité par opposition à la mesure dans la recherche psychique comme dans de nombreux autres sujets me semble émerger avec de plus en plus d'urgence. On ne peut pas l'ignorer simplement parce qu'il est mal à l'aise et que c'est difficile à traiter. C'est pertinent pour la science, la philosophie, et tout le concept de synchronicité. Mais (parce que c'est tellement plus facile d'accumuler et de quantifier des données que de réfléchir sur leur signification) les notions de qualité et de sens qui comptent le plus pour les hommes ont tendance à être balayés. C'est une des raisons pourquoi ce livre est si précieux. Il se bat avec sens, intègre des faits.

Pourtant, je tiens à souligner le thème encore plus. La mesurable et le calculable peuvent servir la qualité, mais en diffèrent en nature. "Le son du cor le soir au fond des bois", "L'écume des mers périlleuses dans les terres désolées féeriques", "une profonde et troublante noirceur" - ces phrases peuvent être comprises et expérimentées instantanément en ce sens, mais elles ne sont pas susceptibles d'une analyse scientifique ou de quantification.

De même, vous ne pouvez pas avoir une tonne d'amour (en dépit de la façon dont les filles l'utilisent pour signer leurs lettres), soit un mètre de haine ou un gallon de pétrole de crainte, mais l'amour, la haine et la crainte sont tout aussi réels qu'une tonne de farine, une aune de toile ou d'un gallon d'essence, plus réel en effet, parce qu'ils ont une signification immédiate, ce ne sont pas de simples actions comme faire du pain cas ou remplir un oreiller. C'est une qualité, signifiant, qui clignote comme une étoile filante via la synchronicité, de même que, curieusement, à l'autre bout du spectre psychophysique, ça s'enflamme à travers des phénomènes de poltergeist "maisons hantées" *** maintenant considérés comme un effet de chaos profond ou la misère humaine s'exprime via un mode psychokinétique pas encore compris. Ainsi, grotesque, effrayant maintenant, les bruits, les pluies de pierres, les bouteilles brisées, les ampoules qui explosent, la modification violente inexplicable d'un équipement électrique symbolisent et exprimer plus directement que les mots ou la musique ou la peinture le conflit intérieur et l'agitation de la personne autour de laquelle tout ceci se produit.

Jung interprète ces phénoménal - comme les détonations chez Freud - comme des cas extrêmes de liens "transpsychiques" de causalité. Dans la vie quotidienne, ils se manifestent bien sûr de façon moins spectaculaire. Je décide d'écrire une phrase et le fonctionnement électrique de mon cerveau, le fonctionnement moteur de mes muscles exécutent cette décision via une chaîne traçable de causes physiques, mais c'était ma décision qui a établi le processus en cours. Il est en outre possible que de telles décisions puissent avoir des effets directs sur des processus biologiques qui ne sont pas en contact physique avec le corps du décideur, comme suggéré dans un article récent de John L. Randall sur "les phénomènes psi et théorie biologique" ****, qui fait référence à des travaux expérimentaux testant les effets psychokinétiques sur l'activité enzymatique, sur les paramécies, sur la croissance des plantes, et sur la cicatrisation des lésions chez la souris. Il fournit par ailleurs la jolie définition suivante générale: "Un phénomène psi est dite avoir eu lieu lorsque des informations sont transmises vers un système physique sans utilisation d'aucune forme connue d'énergie physique."

n peut ainsi distinguer entre différents niveaux: conscience de décision; phénomènes de type poltergeist engendré dans les couches subconscientes de la psyché, et enfin la synchronicité et les coïncidences significatives produites par l'esprit opérant à un autre niveau, inconcevable. Dans ce contexte, je pense qu'il me faut exprimer mon désaccord avec M. Koestler sur ce "sentiment océanique" et son " concept dominant" que "tout est un et un est tout" qui "fait écho à travers des écrits des mystiques chrétiens" (p.108).

Je suis sûre que cela arrive, et que, comme il l'écrit, il s'agit d'un passage vers le haut de la spirale de la conscience symbiotique de l'enfant, l'époque dorée du "temps du rêve" du primitif. Mais je ne pense pas que tous les mystiques, chrétiens ou non, partagent cette conception dominante, et le sentiment d'unité avec l'anima mundi que cela sous tende. Ils sont enflammés par une joie presque intolérable, mais ne sont pas engloutis en elle. Il ne peut y avoir de perception sans percepteur, et le contemplatif se perçoit lui-même suffisamment bien pour savoir s'il se réjouit. C'est comme si le coucher du soleil, ou la chaine de montagnes ou la nuit des étoiles qui les avaient mis en admiration se manifestaient comme étant en vie et les regardaient en retour. Il y a cette mémoire d'une remarque sobre de Francis Bacon, avocat, homme politique, essayiste et chercheur, qui évoqua pour la première fois des méthodes expérimentales pour tester en Angleterre la cognition paranormale. "J'aimerai plutôt croire toutes les fables du Talmud et du Coran que penser toute cette trame universelle sans esprit", un esprit qui est plus qu'un ordinateur mathématique et plus qu'un vaste système nerveux automatique, qui animerait tout ce qui est, aussi efficace et aussi inconscient de lui-même qu'une saine digestion.

Auteur: Koestler Arthur

Info: Internet et Roots of coïncidence. *M. Ullman et S. Krippner, études de rêves et de télépathie. Parapsychology Foundation, New York, 1970. **Stanley Krippner et autres, "bombardement sensoriel à longue distance, une étude de l'ESP dans les rêves." JASPR, vol. 65, n ° 4, Octobre 1971. *** Cf. ARG Owen, peut-on expliquer le Poltergeist? New York, 1964. ** "L'affaire Poltergeist Rosenheim", une communication lue par le Dr Hans Bender, le 11e Congrès annuel de l'Association de parapsychologie de Freiburg, Septembre 1968. Voir aussi JSPR., Vol. 46, n ° 750, Décembre 1970. **** SPR, vol. 46, n ° 749, Septembre 1971.

[ Holon ] [ chair-esprit ] [ intégratif ] [ épigénétique ] [ pré-mémétique ] [ homme-animal ] [ curiosité moteur ] [ dépaysement nécessaire ] [ spiritualité ]

 
Commentaires: 1

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaire partout

Rubrique pour les maniaques de ce chiffre symbole (en développement)

Sciences physiques -  du micro au macro,  de l'abiotique au biotique (non organique/organique) via cette hiérarchie septénaire orthogonale* : atomes - molécules - organites/cellules - tissus - organes/systèmes - individus -  organismes/population/socio    

- Dans le domaine de la physique des particules on dénombre sept types de particules élémentaires, à savoir les six quarks et l'électron (ou deux fois 7 - ce qui est encore plus transcendant). Plus précisément, il s'agit de "saveurs" de quarks. Les quarks up, down, charm, strange, top et bottom, plus un septième quark théorique appelé "top-bottom". Les quarks sont les éléments constitutifs des protons et des neutrons, qui sont les particules composant le noyau d'un atome. Ces particules sont considérées comme élémentaires car elles ne peuvent pas être divisées en sous-particules plus petites.

- On observe que certaines particules élémentaires, telles que le boson de Higgs, ont une masse qui est d'environ 126 fois celle du proton, qui est un multiple de sept.

- Le tableau périodique des éléments compte sept lignes ou groupes, chacun correspondant à un niveau d'énergie spécifique pour les électrons dans l'atome, chaque période contient un nombre précis d'éléments, la première période comptant deux éléments (hydrogène et hélium), la deuxième période huit éléments, et ainsi de suite. Tableau périodique, inspiré par un songe à son découvreur, Dmitri Mendeleïev. Cette structure correspond au sept éléments de l'échelle d'électronégativité de Pauling.

- Le chiffre 7 est le numéro atomique de l'azote, dont le noyau contient sept protons et sept neutrons. Il s'agit d'un élément très réactif, essentiel à la vie, constituant majoritaire de l'atmosphère terrestre. Ainsi la masse d'un seul atome d'azote est de 14, nombre de nucléons (protons et neutrons) que l'on retrouve dans un des deux isotopes les plus courants du nitrogène, l'azote 14. Il constitue environ 78 % de l'air terrestre et dont les atomes spécifiques  azote (14N) - composent la haute atmosphère et interceptent une partie du rayonnement cosmique.

Science - chimie

- L'atome de silicium, élément chimique avec le symbole Si, abrite 2 X sept protons dans son noyau. Ce métalloïde  tétravalent appartient au groupe 14 du tableau périodique (quatorzième colonne, comprenant le carbone (C), le silicium (Si), le germanium (Ge), l’étain (Sn) et le plomb (Pb). C'est l'élément le plus abondant dans la croûte terrestre après l'oxygène, soit 25,7 % de sa masse, mais il n'est comparativement présent qu'en relativement faible quantité dans la matière constituant le vivant.

- Classes d'universalité : Les modèles avec contraintes cinétiques critiques ont 7 classes d'universalité

- Groupes fonctionnels : Les groupes fonctionnels sont des atomes ou des groupes d'atomes spécifiques responsables des réactions chimiques caractéristiques d'une molécule. Il existe sept types de groupes fonctionnels : hydroxyle, méthyle, carbonyle, carboxyle, amino, phosphate et sulfhydryle

-  Il y a  7 angles de torsion clés par nucléotide qui définissent la conformation du squelette sucre-phosphate dans les acides nucléiques comme l'ADN et l'ARN.

- La bactériorhodopsine, petite protéine qu'on trouve chez les halobactéries, fonctionne comme une pompe à protons utilisant l'énergie lumineuse pour générer un gradient de protons à travers la membrane cellulaire. Constituée de 248 acides aminés elle se présente sous forme d'un homotrimère à symétrie cylindrique. Chacune des trois unités identiques a une structure en sept hélices α transmembranaires — structure dite opsine — emprisonnant un chromophore

- Les enzymes sont des protéines qui catalysent les réactions biochimiques dans les organismes vivants. Elle peuvent être classées en sept catégories selon le type de réaction qu'elles catalysent. Ces catégories sont les oxydoréductases, les transférases, les hydrolases, les lyases, les isomérases, les ligases et les translocases. Parmi ces catégories, les oxydoréductases, les transférases et les hydrolases sont les formes d'enzymes les plus abondantes.

-  La traduction des protéines, également appelée la synthèse des protéines à partir de l'ARN, est un processus biologique essentiel. Il se produit dans les ribosomes des cellules. Il implique plusieurs étapes enzymatiques qui se déroulent de manière séquentielle en sept étapes. Etapes qui peuvent être résumées comme suit :

A) Initiation : Le processus commence par la liaison de la petite sous-unité ribosomale à la molécule d'ARN messager (ARNm). Cela est suivi par le recrutement de l'ARN de transfert initiateur et l'assemblage de la grande sous-unité ribosomale.


B) Élongation (3 étapes) : Pendant l'élongation, le ribosome se déplace le long de la molécule d'ARNm et facilite l'ajout d'acides aminés à la chaîne polypeptidique en cours de croissance. L'élongation comprend trois étapes : la liaison de l'ARN de transfert aminoacylé, la formation de la liaison peptidique et la translocation.

C) Terminaison (3 étapes) : La terminaison se produit lorsqu'un codon stop est atteint sur la molécule d'ARNm. Elle implique la reconnaissance du codon stop par des facteurs de libération, ce qui entraîne la libération de la chaîne polypeptidique complète du ribosome.

Après la terminaison, le ribosome se désassemble et ses sous-unités sont libérées pour être utilisées dans de nouvelles étapes de la synthèse des protéines. Le recyclage du ribosome garantit l'utilisation efficace des ressources cellulaires.

Ces 7 étapes enzymatiques d'initiation, d'élongation, de terminaison et de recyclage du ribosome constituent le processus de traduction des protéines. Elles sont étroitement régulées et orchestrées de manière précise pour assurer une synthèse des protéines précise et efficace dans les cellules.

- Biomolécules : Les biomolécules sont les molécules qui composent les organismes vivants. Il existe quatre classes de biomolécules : les glucides, les lipides, les protéines et les acides nucléiques. Au sein de ces classes existe sept niveaux d'organisation : monomères, oligomères, polymères, domaines, motifs, plis et structure quaternaire. (à consolider vérifier). Ici perplexity.ai me propose ceci :  1  Atomes, briques élémentaires de base, principalement le carbone, l'hydrogène, l'oxygène et l'azote pour les biomolécules.  2 Molécules : Les atomes sont liés entre eux par des liaisons covalentes pour former des molécules organiques comme le glucose, les acides aminés, les acides gras, etc.  3  Monomères -  Ce sont les plus petites unités constitutives des biomolécules, comme les acides aminés pour les protéines, les nucléotides pour les acides nucléiques, etc.  4  Oligomères.  Petits polymères formés par quelques monomères liés, comme les dipeptides, les trinucléotides.  5 Polymères :  Grandes molécules formées par la répétition de nombreux monomères, comme les protéines, les acides nucléiques, les polysaccharides. 6  Domaines/Motifs structuraux : Régions compactes au sein des polymères ayant une structure et une fonction particulières, comme les feuillets β ou les hélices α dans les protéines.  7 : Structure quaternaire, Organisation de plusieurs chaînes polymériques en complexes macromoléculaires, comme les ribosomes formés de plusieurs ARN et protéines.

-  Sous le nom de cycle de Calvin-Benson le processue de photosynthèse se déroule généralement en sept étapes  divisées en deux séries de réactions qui ont lieu dans différentes régions des chloroplastes végétaux : la réaction dépendante de la lumière et les réactions indépendantes de la lumière ou “ sombres ”. La réaction dépendante de la lumière a lieu dans la membrane thylakoïdienne du chloroplaste. Elle convertit l’énergie lumineuse en énergie chimique, stockée sous forme d’ATP et de NADPH**. Cette énergie est ensuite utilisée dans la région du stroma du chloroplaste, pour réduire le dioxyde de carbone atmosphérique en glucides complexes grâce aux réactions indépendantes de la lumière du cycle de Calvin-Benson, essentiel pour la fixation du carbone et la production d'oxygène dans l'atmosphère qui permettent la vie sur Terre. Ces 7 étapes sont : (1ère série, phase claire, dépendant de la lumière) L'énergie du soleil est absorbée.  L'eau est décomposée.  Les ions hydrogène sont transportés à travers la membrane du thylakoïde.  (2e série, phase sombre, indépendante de la lumière)  Capture du dioxyde de carbone atmosphérique (CO2), Le NADPH est produit à partir du NADP+.  Les ions hydrogène diffusent à travers le canal protéique.  L'ADP devient de l'ATP.

- Le processus de division cellulaire chez les bactéries est régulé par une variété de protéines, y compris FtsZ, qui forme une structure en forme d'anneau connue sous le nom d'anneau Z sur le site de la division cellulaire. L'anneau Z est composé de sept sous-unités FtsZ.

-  En médecine les bactéries peuvent former des structures complexes appelées biofilms, (la plaque dentaire par exemple) qui consistent en une communauté de micro-organismes entourés d'une matrice de substances polymériques extracellulaires. La formation d'un biofilm comporte sept étapes distinctes (cinq selon d'autres sources). Ces biofilms bactériens sont prédominants dans les écosystèmes naturels et constituent une menace pour la santé publique en raison de leur résistance exceptionnelle aux traitements antibactériens et en particulier aux antibiotiques.

-  il existe sept plis protéiques différents parmi les dix vraies familles de cellulases qui sont les enzymes aptes à décomposer la cellulose. Elles sont produites typiquement par des bactéries, champignons et des protozoaires, qui jouent un rôle majeur dans la digestion par les animaux, et dans la transformation de la matière organique végétale en humus dans le sol. Elles ont aussi des applications biotechnologiques et industrielles. Sept plis protéiques qui correspondent à sept types de cellulases : Endo-cellulases: qui cassent la structure cristalline de la cellulose en chaînes polysaccharidiques. Exo-cellulases (cellobiohydrolases, 'CBH'): qui coupent 2-4 unités aux terminaisons des chaînes polysaccharides, libérant par exemple le cellobiose. Elles travaillent progressivement soit depuis la terminaison réductrice, soit depuis l'autre. β-glucosidases (Cellobiase): elles hydrolysent les chaînes polysaccharidiques en monosaccharides. Oxidative cellulases: elles depolymérisent la cellulose. Cellulose phosphorylases: elles depolymérisent la cellulose en utilisant des phosphates. pectinases: elles hydrolysent la pectine. hémicellulases: qui hydrolysent l'hémicellulose

- Une cellule recense septs organites autour de son noyau, centre de contrôle de la cellule qui contient son génome, c'est à dire l'ensemble de son ADN.

Réticulum endoplasmique : Le réticulum endoplasmique est un réseau de membranes qui transporte des protéines et des lipides dans la cellule. Il existe deux types de réticulum endoplasmique : le réticulum endoplasmique rugueux, qui est recouvert de ribosomes, et le réticulum endoplasmique lisse, qui n'est pas recouvert de ribosomes.

Appareil de Golgi : L'appareil de Golgi est un ensemble de saccules qui modifie et trie les protéines et les lipides avant de les transporter hors de la cellule.

Lysosomes : Les lysosomes sont des sacs remplis d'enzymes qui décomposent les déchets et les cellules endommagées.

Mitochondries : Les mitochondries sont les centrales énergétiques de la cellule. Elles produisent de l'ATP, qui est la forme d'énergie que la cellule utilise pour fonctionner.

Chloroplastes : Les chloroplastes sont des organites trouvés dans les cellules végétales. Ils contiennent de la chlorophylle, qui permet aux plantes de produire de la nourriture par photosynthèse.

Centrioles : Les centrioles sont des structures cylindriques qui jouent un rôle dans la division cellulaire.

Cytosquelette : Le cytosquelette est un réseau de filaments qui donne à la cellule sa forme et sa structure. Il permet également à la cellule de se déplacer et de se déplacer.

- Conception de médicaments : Le processus de conception de nouveaux médicaments implique l'étude de l'interaction entre les molécules et les cibles biologiques. La conception d'un médicament comporte sept étapes : l'identification de la cible, la génération de pistes, l'optimisation des pistes, le développement préclinique, le développement clinique, l'approbation réglementaire et la surveillance post-commercialisation.

- L'échelle de PH, système de mesure utilisé pour quantifier l'acidité ou l'alcalinité (basicité) d'une solution, s'étend de 0 à 14 (zéro plus 2 fois sept), la valeur 7 étant considérée comme neutre. L'échelle de pH suit un système de classification structuré en sept parties ou stades :

- Les sept systèmes minéraux cristallins: - Cubique ou isométrique, - Quadratique ou tétragonal, - Orthorhombique, - Monoclinique, - Triclinique, - Hexagonal, - Rhomboédrique.

- Pour ce qui concerne la séparation taxonomique "végétal - animal" une équipe a trouvé 14 groupes de gènes qui apparaissaient sur des chromosomes distincts chez les méduses à peigne et leurs parents unicellulaires "non animaux". Il est intéressant de noter que chez les éponges et tous les autres animaux, ces gènes ont été réarrangés en sept groupes.

- Les sept caractéristiques biologique du vivant  : mouvement respiration excitabilité croissance reproduction nutrition excrétion.

- Presque tout les mamifères sont dotés de sept vertèbres cervicales.

- Tous les groupes d'organismes vivants partagent sept caractéristiques ou fonctions clés : ordre, sensibilité aux stimuli, reproduction, adaptation, croissance et développement, régulation homéostasique et traitement de l'énergie.

- Rythmes biologiques : En chronobiologie, l'étude des rythmes biologiques, certains cycles présentent une période proche de sept jours. Par exemple, le cycle menstruel chez l'humain est en moyenne de 28 jours, qui peuvent être divisés en quatre intervalles d'environ sept jours.

- Les sept couleurs de l'arc en ciel (violet, indigo, bleu, vert, jaune, orange, rouge). Que l'on peut appréhender comme un système double :

Les sept couleurs verticales en synthèse additive (lumière) 3 primaires (bleu, vert, rouge) 3 secondaires (cyan, magenta, jaune) 1 finale (blanche) avec les sept superposées

Les sept couleurs verticales en synthèse soustractive (matière, impression graphique) 3 primaires (jaune, cyan, magenta) 3 secondaires (rouge, vert,bleu) 1 finale (noir) avec les sept superposées. Ces deux rubriques additive et soustractive sont peut-être à rapprocher avec les 6 quarks et l'electron. Ce dernier représentant alternativement blanc et/ou noir... Toutes données bien entendu en rapport direct avec la cognition humaine.


- Selon Paul Jorion les populations Xwéda (Région de l'ex Dahomey) ont opéré le regroupement des phénomènes naturels en vastes catégories reproduisant les sept modèles élémentaires de la théorie géométrique des catastrophes de René Thom.

- Ce dernier, s'appuyant sur les travaux de Hassler Withney, réussit à démontrer dans ses "Modèles mathématiques de la morphogenèse" qu'il y a sept potentiels organisateurs, ni plus ni moins, c'est à dire sept types de catastrophes qui sont, par ordre de complexité croissante : pli, fronce, queue d'aronde, papillon, ombilic hyperbolique, ombilic elliptique et ombilic parabolique.

- Les afficheurs électroniques à sept segments

-  Les 7 composants de l'écosystème de l'infrastructure des système informatques, à savoir ; Plateformes Internet  (apache   microsoft   apache  cisco), Plateformes matérielles  (IBM  Dell   Machines linux), Plateformes de systèmes d'exploitation (windows, apple, linux), Applications logicielles d'entreprise (erp entreprise ressource planning), Réseaux et téécommunications (window server, ATT,  northel), Consultant et intgrateurs de systèmes  (services ). Traitement et stockage de données   (sql  oracle, etc)  

- Les sept couches du modèle OSI : Le modèle OSI (Open Systems Interconnection) est un modèle conceptuel qui décrit les fonctions de communication d'un système informatique. Le modèle se compose de sept couches, chacune d'entre elles correspondant à un type spécifique de fonction réseau.

- Les sphères d’action de Vladimir Propp dans son ouvrage fondateur, "Morphology of the Folktale", où il identifie différents rôles de personnages et fonctions narratives dans les contes de fées russes. Ces sept sphères d'action de l'analyse de Propp sont  :

1) Sphère de la méchanceté ou du manque du méchant : Cette sphère comprend les actions liées au méchant ou à l'antagoniste, telles que ses mauvaises intentions ou son manque initial de quelque chose d'important.

2) Sphère du donateur : Cette sphère comprend les actions impliquant un personnage qui fournit de l'aide ou des objets magiques au héros.

3) Sphère du départ du héros : Les actions liées au départ du héros de son lieu initial ou à la mise en route de son voyage relèvent de cette sphère.

4) Sphère du voyage du héros : Cette sphère englobe les actions et les événements qui se produisent au cours de la quête ou du voyage du héros, y compris les rencontres avec des aides, le franchissement d'obstacles et l'acquisition de connaissances ou de capacités.

5) Sphère de la lutte du héros : Les actions liées au conflit principal du héros ou à sa lutte contre le méchant font partie de cette sphère.

6) Sphère de la reconnaissance du héros : Cette sphère comprend les actions au cours desquelles le héros est reconnu ou identifié d'une manière significative.

7) Sphère du retour du héros : Les actions liées au retour du héros à son lieu initial ou à son domicile après avoir achevé son voyage entrent dans cette sphère.

- Les sept points de convergence entre pragmatisme et logique mathématique identifiés par Vailat i (Giovanni Vailati, "Pragmatism and Mathematical Logic", The Monist, 16.4, 1906, p. 481-491)

En mathématique 

Le chiffre sept présente quelques relations intéressantes avec les nombres premiers  dont il fait lui-même partie. Sept fait  en outre partie d'une paire de nombres premiers jumeaux, qui sont des nombres premiers qui diffèrent par deux. La paire de nombres premiers jumeaux contenant sept est (5, 7), les deux nombres étant premiers. Il y a aussi le tamis d'Ératosthène : Lorsque l'on utilise le crible d'Ératosthène, une méthode pour trouver les nombres premiers, le sept est le premier nombre à être rayé après les nombres premiers initiaux (2, 3, 5). Il marque le début du cycle suivant dans le tamis.

- Les septs éléments de la formule mathématique de l'identité d'Euler    e^(iπ) = -1   c'est à dire les trois constantes mathématiques les plus remarquables  à savoir :

  e   base du logarythme naturel    π  constante mystérieuse des maths    i   l'unité imaginaire à la base des nombres complexes, etc

combiné avec ces 4 symboles

   0, l'élément neutre de l'addition

   1, l'élément neutre de la multiplication

   + , qui représente l'addition, la multiplication et la puissance

   = , qui représente l'égalité

- Constante de Kaprekar est une propriété mathématique unique à laquelle il faut au maximum 7 étapes pour obtenir ce qu'on appelle également la constante 6174 qui est obtenue à partir de n'importe quel nombre à quatre chiffres non tous égaux. 

- Les sept tuples de la machine de Turing.   Q : l'ensemble fini des états. ∑ : l'ensemble fini des symboles d'entrée. T : le symbole de la bande. q0 : l'état initial. F : un ensemble d'états finaux. B : un symbole vide utilisé comme marqueur de fin d'entrée. δ : une fonction de transition ou de mise en correspondance.  On la résume donc sous le 7-tupels suivant :  (Q,∑Γ,δ,q0,B,F) 

- Nombre parfait : Bien que le 7 ne soit pas un nombre parfait, il est étroitement lié aux nombres parfaits. Un nombre parfait est un nombre entier positif égal à la somme de ses diviseurs propres (diviseurs positifs autres que lui-même). Les premiers nombres parfaits sont 6, 28, 496, 8128, etc. Il est intéressant de noter que la somme des réciproques des diviseurs propres de 7 est égale à 8, soit deux fois 7, ce qui en fait un "nombre presque parfait".

- Tuiles planes : Il existe exactement trois tuiles planes régulières qui n'utilisent qu'un seul polygone régulier, et l'une d'entre elles utilise sept hexagones réguliers disposés autour d'un seul point.

- Nombre magique : Un nombre magique est un nombre qui peut être exprimé comme la somme des cubes de ses chiffres. Le seul nombre magique à deux chiffres est 27, qui est égal à 2^3 + 7^3. Le seul nombre magique à un chiffre est 1.

- Heptagone : Un heptagone est un polygone à sept côtés. C'est le seul polygone régulier avec un nombre premier de côtés qui peut être construit à l'aide d'un compas et d'une règle.

- Le nombre premier de Belphégor : 100000000000006660000000001 est un nombre premier qui contient 13 chiffres de 6 suivis du chiffre 7, suivis de 13 autres chiffres de 0, suivis de 1. Ce nombre est parfois appelé le nombre premier de Belphégor, du nom d'un démon du même nom.

- Les sept ponts de Königsberg : Le célèbre problème des sept ponts de Königsberg, issu de la théorie des graphes, concerne un réseau de sept ponts reliant deux îles et deux rives, et pose la question de savoir s'il est possible de traverser chaque pont exactement une fois et de revenir au point de départ. Ce problème a jeté les bases du domaine de la topologie en mathématiques.

- Nombre catalan : Les nombres catalans sont une séquence de nombres qui apparaissent dans de nombreux contextes mathématiques, notamment pour compter le nombre de façons d'arranger divers objets et dans l'analyse des algorithmes. Le septième nombre catalan est 429, qui représente le nombre de façons d'insérer des parenthèses dans une séquence de six éléments.

- Victoire pythagoricienne : Selon la légende, le mathématicien grec Pythagore aurait découvert la relation entre les côtés d'un triangle rectangle (a^2 + b^2 = c^2) en étudiant les propriétés du chiffre 7. Cette découverte, connue sous le nom de théorème de Pythagore, est devenue l'un des théorèmes les plus fondamentaux de la géométrie et des mathématiques.

- En géométrie algébrique existe un théorème célèbre appelé classification des surfaces d'Enriques-Kodaira, qui classe toutes les surfaces algébriques projectives lisses jusqu'à la déformation. L'une des étapes clés de la preuve de ce théorème implique l'étude d'un objet particulier appelé surface K3, qui est une surface projective lisse de dimension 2 qui possède un faisceau canonique trivial et est holomorphiquement symplectique. Il est intéressant de noter que les surfaces K3 possèdent toujours exactement 22 points doubles rationnels isolés, qui sont des points singuliers pouvant être modélisés localement sur l'ensemble zéro de l'équation x^2 + y^2 + z^2 + w^2 + t^2 + ut + vt = 0, où (x,y,z,w,t,u,v) sont des coordonnées dans l'espace complexe à 7 dimensions.

- La conjecture de Poincaré a notoirement été prouvée par le mathématicien Grigori Perelman en 2002-2003. Ce théorème stipule que tout 3-manifold fermé et simplement connecté est homéomorphe à la 3-sphère. On notera que la preuve de ce théorème repose sur l'étude de structures géométriques avec des groupes d'isométrie à 7 dimensions, connues sous le nom de manifolds G2. Dit autrement une 3-sphère (ou glome ou hypersphère, qui est un analogue de dimension supérieure de la sphère) est l'analogue d'une sphère en dimension quatre. C'est l'ensemble des points équidistants d'un point central fixé dans un espace euclidien à 4 dimensions. Tout comme une sphère ordinaire (ou 2-sphère) est une surface bidimensionnelle formant la frontière d'une boule en trois dimensions, une 3-sphère est un objet à trois dimensions formant la frontière d'une boule à quatre dimensions. Une 3-sphère est un exemple de variété (différentielle) de dimension 3. 

Religions, spiritualités et traditions mondiales

Voici quelques exemples de l'importance du chiffre sept dans les cultures africaines : (à vérifier)

- Sept puissances africaines : Dans les religions afro-caribéennes et afro-latines telles que la Santeria et le Candomble, il existe un concept connu sous le nom des "Sept Puissances Africaines" ou "Sept Orishas Africains". Il s'agit de sept divinités ou esprits représentant différents aspects de la vie et de la nature, tels que l'amour, la sagesse et la protection.

- Sept directions : Certaines cultures africaines reconnaissent sept directions cardinales, dont les quatre directions principales (nord, sud, est, ouest) et trois directions supplémentaires : le haut (le ciel), le bas (la terre) et le centre (qui représente l'équilibre et l'harmonie).

- Rites d'initiation : Dans certains rites d'initiation africains, il y a souvent sept étapes ou rituels auxquels les individus doivent se soumettre pour passer d'un statut social ou spirituel à un autre. Ces étapes peuvent comprendre des tests, des enseignements et des cérémonies.

- Systèmes de divination : Certains systèmes de divination africains, comme la divination Yoruba Ifa, utilisent des ensembles d'outils de divination composés de 16 ou 256 éléments. Ces ensembles sont ensuite divisés en quatre groupes de sept, représentant différents modèles symboliques et interprétations.

- Dans l'Égypte ancienne, il y avait 7 étapes vers le jugement final dans l'au-delà.

- Dans la culture chinoiseLe chiffre sept revêt aussi une grande importance culturelle et historique, au-delà de la culture occidentale on y trouve ces exemples notables :

Les sept corps célestes : Dans la cosmologie chinoise ancienne, sept corps célestes étaient considérés comme importants : le Soleil, la Lune, Mars, Mercure, Jupiter, Vénus et Saturne. Ces corps étaient censés avoir une influence sur les affaires humaines et étaient associés à divers éléments, directions et couleurs.

Les sept étoiles de la Grande Ourse : La Grande Ourse, appelée "Ourse du Nord" dans la mythologie chinoise, est un astérisme important. On pense qu'elle est composée de sept étoiles, qui ont une signification dans divers contextes culturels et spirituels. La Grande Ourse est associée à l'orientation, à la protection et à la navigation.

Les sept trésors : Dans l'art et le symbolisme chinois, il existe sept trésors appelés les "sept trésors du bouddhisme". Ces trésors comprennent l'or, l'argent, le lapis-lazuli, le cristal, l'agate, le corail et une conque blanche. Ils représentent la richesse, la prospérité, les qualités spirituelles et le bon augure.

Les sept vertus : Le confucianisme, philosophie influente de la culture chinoise, met l'accent sur les valeurs éthiques et les vertus. L'un des enseignements fondamentaux du confucianisme est la culture des "sept vertus" ou "sept constantes", qui comprennent la bienveillance, la droiture, la bienséance, la sagesse, la fiabilité, la loyauté et la piété filiale.

Il y a aussi, dans la culture chinoise, le septième mois du calendrier lunaire est connu sous le nom de mois des fantômes et est rempli de superstitions et de tabous.

- La Torah mentionne 7 bénédictions et 7 malédictions.

- Ménorah à sept branches : La ménorah à sept branches est un chandelier symbolique utilisé lors des cérémonies religieuses juives. La ménorah a sept branches qui représentent les sept jours de la création dans le livre de la Genèse.

- Les sept anges qui se tiennent devant Dieu: Zadkiel, Gabriel, Japhiel, Michel, Saltiel et Uriel. Dans l'apocalypse, il y a aussi sept sceaux, sept trompettes, sept candélabres d'or, sept lettres adressées aux sept églises, sept tonnerres, etc... - Les sept patriarches bibliques : Aaron, Abraham, Isaac, Jacob, Joseph, Moïse et David

- Les 7 princes des Enfers sont Mammon, Azazel, Belzébuth, Asmodée, Belphégor, Dispater et Méphistophélès.

- Dans le christianisme le 7 représente l'achèvement ou la perfection, comme dans les jours de la création du monde du livre de la Genèse où Dieu est décrit comme ayant achevé son œuvre et se reposant le septième jour.

- Sept vertus cardinales : Dans la tradition chrétienne, les sept vertus cardinales sont un ensemble de vertus considérées comme essentielles à une vie vertueuse. Ces vertus sont la prudence, la justice, la tempérance, la force d'âme, la foi, l'espérance et la charité.

- L'Apocalypse, dans le Nouveau Testament, mentionne les sept sceaux, les sept trompettes et les sept coupes de la colère.

- L'Église catholique compte sept sacrements : le baptême, la confirmation, l'eucharistie, la réconciliation, l'onction des malades, l'ordre sacré et le mariage.

- Les 14 ( 2 x 7) stations du chemin de croix :  1ère station : Jésus est condamné à mort.  2e station :  Jésus est chargé de sa croix. 3e station : Jésus tombe sous le bois de la croix.  4e station : Jésus rencontre sa Mère. 5e station : Simon de Cyrène aide Jésus à porter sa croix.  6e station : Véronique essuie la face de Jésus. 7e station : Jésus tombe pour la seconde fois. 8e station : Jésus console les filles de Jérusalem. 9e station : Jésus tombe pour la 3e fois. 10e station : Jésus est dépouillé de ses vêtements. 11e station : Jésus est attaché à la croix. 12e station : Jésus meurt sur la croix. 13e station : Jésus est descendu de la croix et remis à sa mère. 14e station : Jésus est mis dans le sépulcre.   (15e station : avec Marie, dans l’espérance de la résurrection)- Les sept dernières paroles du Christ.

- les 7 étapes des "dialogues avec l'ange" : minéral, végétal, animal, humain, ange, archange, dieu. Le tout constituant un miroir réversible (minéral miroir de dieu, ange miroir de l'animal, etc.) l'humain étant le pivot, au centre.

- Dans l'islam, il y a sept cieux et sept enfers.

- Dans l'islam, le chiffre 7 représente les sept cieux, qui sont décrits dans le Coran

- Les septs archanges : Michel, Gabriel, Raphaël, Uriel, Jérémiel, Zadkiel, Raguel...  (Sandalphon, Phanuel, Saratiel, Egoudiel, Barachiel, etc... ne sont pas admis par la tradition et seul les 3 premiers sont cités dans la bible)

- Dans l'hindouisme, il y a sept chakras ou centres d'énergie dans le corps. 

- Les sept chakras : sahasrara, agnya, vishuddhi, anahat, nabhi, swadhistana et mooladhara.

- Les sept parties des Kamâ Sutrâ de Mallanâga Vâtsyâyana: Plan de l'ouvrage et questions générales, de l'union sexuelle, de l'acquisition d'une épouse, de l'épouse, des épouses d'autrui, des courtisanes, des moyens de s'attacher les autres.

Divers, mythologie, beaux-arts, etc

- Les sept notes de la gamme diatonique occidentale révèlent le septénaire comme un régulateurs des vibrations.

- Le septième sens, au-delà du 6e sens, qui est celui de l'intuition, existe en chacun de nous une perception spécifique qui est celle du rapport au divin.

- Les sept sœurs : Les Pléiades, également connues sous le nom de Sept Sœurs, sont un groupe d'étoiles de la constellation du Taureau connu depuis l'Antiquité. Elles étaient considérées comme sept des étoiles les plus proéminentes du ciel et représentaient les sept filles d'Atlas et de Pléione dans la mythologie grecque.

- Les sept sages de Grèce : Les sept sages de Grèce étaient un groupe de sept hommes sages réputés pour leur sagesse et considérés comme ayant jeté les bases de la philosophie grecque antique. Les noms des sept sages sont Thalès de Milet, Solon d'Athènes, Chilon de Sparte, Bias de Priène, Cléobulus de Lindos, Périandre de Corinthe et Pittacus de Mytilène.

- Les sept émotions pulsions de base : Joie, Tristesse, Dégoût, Peur, Colère, Surprise, Mépris. (Paul Ekman)

- Les sept orifices du visage : yeux, narines, bouche, oreilles.

- Le syndrome du 7 chanceux : Le syndrome du "7 chanceux" est un phénomène psychologique qui implique une tendance à attribuer des qualités positives au chiffre 7. Ce phénomène peut être observé dans divers contextes, tels que la stratégie de marque et le marketing, où le chiffre 7 est souvent utilisé pour évoquer la chance ou le succès.

- Le nombre 7 est la somme des deux faces opposées d'un dé standard à six faces.

- Il existe sept types de catastrophes mondiales : l'impact d'un astéroïde, la guerre nucléaire, la pandémie, l'emballement du changement climatique, l'éruption supervolcanique, l'effondrement écologique et l'intelligence artificielle.

- La langue - organe linguale - humaine perçoit sept goûts primaires : le sucré, l'acide, l'amer, le salé, l'umami, le piquant et l'astringent.

- Les sept lois de l'identité numérique de Kim Cameron

- Les 7 industries clefs de la transformation numérique : télécoms et l’IT, santé, distribution, énergies,  média et divertissement, finance, voyages et loisirs.

- Les 7 valeurs dominantes de la société en réseau et de l'éthique protestante qui sont : l'argent, le travail, l'optimalité, la flexibilité, la stabilité, la détermination et le contrôle du résultat. (Pekka Himanen, l'éthique hacker, Exils 2002)

- Les 7 valeurs dominantes du hacker (pirate informatique) : la passion, la liberté, la valeur sociale, l'ouverture, l'activisme, la bienveillance, et la créativité. (Pekka Himanen, l'éthique hacker, Exils 2002

- Les sept péchés infernaux : colère, luxure, gourmandise, envie, paresse, avarice et orgueil.

- Les sept péchés sociaux de Frederick Lewis Donaldson. Qui sont: Richesse sans travail. Plaisir sans conscience. Connaissance sans caractère. Commerce sans moralité. Science sans humanité. Culte sans sacrifice. Politique sans principe. 

- Les sept voyages de Sinbad le marin

- Les sept jours de la semaine.

- Les sept planètes autour du soleil.

- Les sept collines de Rome.

- Les sept terminaisons pointues de l'homme (les deux mains, les deux pieds, le nez, la langue et le sexe)

- Les sept listes d'Ecolalie qui sont aussi des questionnaires.

- Les sept directions (Nord, Est, Sud, Ouest, Zenith, Nadir, Centre).

- Les sept niveaux de la jouissance féminine.

- Les sept ponts de Budapest (Árpád, Margit, Szechenyi, Erzsebet, Szabadság, Petofi, Lágymánosi).

- Les sept provinces basques: Labourd, Basse Navarre, Soule, Guipuzcoa, Alava, Navarre et Biscaye).

- Sept ans de malheur.

- Les bottes de sept lieues.

- Les sept merveilles du monde : le temple d'Artémis à Ephèse, le mausolée d'Halicarnasse, le colosse de Rhodes, les jardins suspendus de Babylone, Ornella Muti jeune, les pyramides d'Egypte, la statue de Zeus à Olympie & le phare d'Alexandrie.

- Les 7 disciplines des Arts libéraux du Moyen Âge, classification fixée par Rome au Premier siècle, divisée en deux cycles. Trivium : grammaire, rhétorique, dialectique et Quadrivium : arithmétique, musique, géométrie, astronomie.  

- Tintin et les sept boules de cristal. (chacune pour un des sept savants de l'expédition Sanders-Hardmuth : Clairmont, Marc Charlet, Paul Cantonneau, Homet, Marcel Brougnard, Hippolyte Bergamotte, Sanders-Hardmuth & Laubépin).

- Les sept mercenaires : Yul Brynner, Steve McQueen, James Coburn, Charles Bronson, Horst Bucholz, Robert Vaughn & Brad Dexter.

- Les sept samouraïs : Toshiro Mifune + six autres.

- Les sept vertus, dont les trois premières sont théologales : La charité, l'espérance, la foi, le courage, la justice, la prudence, la sagesse. A ne pas confondre avec

- Les sept vertus humaines selon Confucius : longévité, chance, popularité, candeur, magnanimité, divinité & gentillesse.

- Les sept femmes de Barbe-Bleue.

- Les sept vérités.

- Les sept nains de Blanche-Neige : Joyeux, Prof, Dormeur, Atchoum, Simplet, Grincheux & Timide.

- Les sept fois qu'il faut tourner sa langue dans sa bouche.

- Les Sept Rayons du monastère de la confraternité des oblates

- Le petit Poucet, ses six frères et les sept filles de l'Ogre

- Les sept voyages de Sinbad le marin

- La légende des sept dormants

- Les sept étapes de l'homme (montage spéculatif maison que l'on trouvera sur FLP)

- Les sept points clefs de la double causalité de Philippe Guillemant (que l'on trouvera sur FLP)

- Les sept métaux fondamentaux de la science alchimique : l'or, l'argent, le cuivre, l'étain, le mercure, le fer et le plomb.

- Les sept arts : l'architecture, la sculpture, la peinture, la musique, la danse, la poésie et le cinéma.

- Les sept conjonctions de coordination : mais où et donc or ni car

- Les sept mots finissant par "ou" qui prennent un x au pluriel : bijou, caillou, chou, genou, hibou, joujou, pou.

- Les sept têtes du naga des temples d'Angkor

- Les sept portes de Thèbes

- Les sept termes des grecs antique pour l'amour : porneia, pathos, eros, philea, storge (familial celui-ci) charis, agapé.

- Les sept vies du chat

- Les sept trompettes de Jéricho

- Les sept entrées de l'Enfer

- Les sept mondes interdits.

- Dans un ouvrage paru en 1956 George Armitage Miller établit que le nombre 7 correspondrait approximativement au nombre maximal d'éléments que serait capable de "traiter" l'esprit humain.

- Federico Navarro, continuant les travaux de Reich, s'est intéressé aux sept niveaux des stases énergétiques.

- Les 7 niveaux de classification pour l'Homme (Taxinomie) Règne : ANIMAL Embranchement: VERTÉBRÉ Classe: MAMMIFÈRE Placentaire Ordre: PRIMATES Famille: HOMINIDÉ Genre: HOMO Espèce: SAPIENS.

- Les sept conseillers fédéraux Suisse ainsi que les sept membres des exécutifs des cantons et des grandes villes.

- Sept couches d'atmosphère : L'atmosphère terrestre peut être divisée en sept couches en fonction de la température et d'autres caractéristiques. Ces couches sont la troposphère, la stratosphère, la mésosphère, la thermosphère, l'exosphère, l'ionosphère et la magnétosphère.

- Les sept aptitudes-outils-facultés holistiques selon Clélia Félix (le son, le verbe, le signe, la nature, l'intuition, le nombre et le rituel.)

- Les sept matchs de tennis qu'il faut gagner pour remporter un titre de grand chelem

- Les sept façons de savoir comment est une personne : Posez-lui une question difficile, et observez sa faculté d'analyse. Prononcez une parole provocante, et voyez sa réaction. Demandez-lui comment elle s'y prend pour résoudre des problèmes épineux, et jugez de son intelligence. Laissez-la se débrouiller d'une situation délicate, et observez son courage. Faites-la boire, et observez son naturel. Tentez-la avec de l'or, et observez son intégrité. Indiquez-lui comment s'acquitter d'une tâche, et assurez-vous de sa fiabilité. (Sun Tzu - L'art de la guerre) 

Linguistique et sémantique

- Les sept partie du corps à la source du langage des iles Adaman 

- Les sept modes verbaux de la grammaire en langue française : - quatre modes personnels, qui se conjuguent : indicatif, conditionnel, subjonctif et impératif. - trois modes impersonnels, qui ne se conjuguent pas : infinitif, participes et gérondif. Binaire et ternaire linguistiques

- Dans certaines langues, comme le latin et le russe, il existe sept cas grammaticaux utilisés pour indiquer la fonction des noms et des pronoms dans une phrase : le nominatif, le génitif, le datif, l'accusatif, l'instrumental, le prépositionnel et le locatif.

- En linguistique, il existe sept structures de phrases de base : les phrases simples, les phrases composées, les phrases complexes, les phrases composées-complexes, les phrases déclaratives, les phrases interrogatives et les phrases impératives. (4 + 3)

En anglais et dans de nombreuses autres langues, il existe sept temps de base : le présent, le passé, le futur, le présent parfait, le passé parfait, le futur parfait et le présent continu.

- Parties du discours : Dans la grammaire traditionnelle, il y a sept parties du discours : les noms, les verbes, les adjectifs, les adverbes, les pronoms, les prépositions et les conjonctions.

- Les sept conférences de Harvard de Charles Sanders Peirce, prononcées en 1903.

-  Les sept agents de la cosmogonie révélés à Jacob Böhme par des visions. Ils sont les sept agents d’une création continue du monde. Ce sont  la dureté, l’attraction, la crainte, le feu, l’amour-lumière, les pouvoirs de la parole et la parole elle-même.

- Les sept parties de l'idéalité royale (Castille, XIIIe siècle) donnés à imprimer par Antonio Díaz de Montalvo, jurisconsulte des Rois Catholiques, comme Le Septénaire : Las Siete Partidas de Alfonso X el Sabio, 2 vol., Séville : Meynardo Ungut et Lançalao Polono, 25 octobre 1491.

- Les sept collines de Rome : Rome, la capitale de l'Italie, est célèbre pour être la "ville aux sept collines". Les sept collines sont la colline de l'Aventin, la colline du Caelius, la colline du Capitole, la colline de l'Esquilin, la colline du Palatin, la colline du Quirinal et la colline du Viminal.

- Sept lois incas : L'empire inca, qui a existé en Amérique du Sud du 13e au 16e siècle, avait un système de lois connu sous le nom de Tawantinsuyu, qui comprenait sept lois principales. Ces lois étaient les suivantes : Ama Sua (ne pas voler), Ama Llulla (ne pas mentir), Ama Quella (ne pas être paresseux), Ama Kella (ne pas être infidèle), Yapaq Ñan (respect), Kawsay Ñan (mener une vie honorable) et Iwka Ñan (ne pas massacrer sans raison).

- Le labyrinthe à sept circuits : Le labyrinthe à sept circuits est un type de labyrinthe utilisé pour la méditation et à des fins spirituelles. Le labyrinthe consiste en un chemin unique qui serpente jusqu'au centre, avec sept cercles concentriques qui divisent le chemin en sept segments.

- Les sept âges de l'homme : Les sept âges de l'homme sont un concept décrit par William Shakespeare dans sa pièce "As You Like It". Les sept âges sont le nourrisson, l'écolier, l'amoureux, le soldat, le juge, le vieillard et, enfin, la seconde enfance.

- Sept continents : Les sept continents sont l'Afrique, l'Antarctique, l'Asie, l'Australie, l'Europe, l'Amérique du Nord et l'Amérique du Sud. Ces continents sont généralement définis en fonction de leurs plaques continentales.

- Septième fils d'un septième fils : Dans le folklore, le septième fils d'un septième fils est censé avoir des pouvoirs spéciaux, notamment la capacité de guérir les maladies et de voir les esprits. Cette légende a été popularisée dans divers médias, notamment dans la musique, la littérature et le cinéma.

- Guerre de Sept Ans : La guerre de Sept Ans est un conflit mondial qui s'est déroulé de 1756 à 1763 et qui a impliqué la plupart des grandes puissances européennes de l'époque. La guerre s'est déroulée principalement en Europe, mais aussi en Amérique du Nord, en Inde et dans d'autres parties du monde.

- Sept couleurs de l'aura : selon certaines traditions ésotériques, l'aura humaine est composée de sept couleurs, chacune correspondant à un aspect spécifique de l'état spirituel, émotionnel et physique de l'individu.

- Les États-Unis d'Amérique comptent 7 pères fondateurs qui ont signé la Déclaration d'indépendance le 4 juillet 1776.

- Les planètes classiques, connues dans l'Antiquité, sont au nombre de 7 : Soleil, Lune, Mercure, Vénus, Mars, Jupiter et Saturne. Dans l'astrologie traditionnelle, on croyait que sept planètes avaient une influence sur les affaires humaines. Ces planètes étaient le Soleil, la Lune, Mercure, Vénus, Mars, Jupiter et Saturne.

- La septième lettre de l'alphabet grec est zêta, souvent utilisée en mathématiques pour représenter une variable ou un coefficient.

- L'étirement de la septième manche est une tradition du baseball selon laquelle les supporters se lèvent et s'étirent pendant la septième manche du match.

- Le temps nécessaire à la lune pour passer par toutes ses phases est d'environ 29,5 jours, ce qui est proche d'un multiple de sept (4 x 7 = 28).

- Nous terminons cette liste avec les 14 diagonales de l'heptagone qui, une fois tracés, dessinent au sein de celui-ci un heptagone interne, puis un deuxième... qui laissent imaginer une suite infinie de la même forme.

(Pour info : Avec FLP nous nous amusons parfois à une organisation qui tente de classifier les extraits via 7 paramètres verticaux et 7 paramètres horizontaux... )

NB : Le nombre 49 n'a pas de signification inhérente ou spécifique en dehors de ses propriétés mathématiques. En mathématiques, 49 est un nombre carré, car il est le produit de 7 multiplié par lui-même (7 x 7 = 49). Il s'agit également d'un nombre composite, car il possède des facteurs autres que 1 et lui-même (à savoir 7 et 1).

Dans diverses cultures et contextes, le nombre 49 peut avoir une signification culturelle ou symbolique. Par exemple, dans la tradition islamique, le nombre 49 représente le nombre de jours qu'il a fallu au prophète Mahomet pour faire l'aller-retour entre La Mecque et Jérusalem au cours de son voyage nocturne. Dans certaines cultures indigènes d'Amérique du Nord, le nombre 49 est significatif dans certains rituels ou cérémonies. Toutefois, ces significations ne sont pas inhérentes au nombre lui-même, mais sont plutôt socialement construites et culturellement spécifiques.

Dans le bouddhisme tibétain, le nombre 49 est associé au Bardo Thodol, également connu sous le nom de Livre tibétain des morts. Ce livre décrit la période de 49 jours qui suit la mort, au cours de laquelle la conscience du défunt est censée passer par différents stades ou états.

Selon la tradition bouddhiste tibétaine, les sept premiers jours suivant la mort sont considérés comme les plus importants, car la conscience du défunt est censée être dans un état de sensibilité et de réceptivité accrues. Pendant cette période, des prières, des offrandes et d'autres pratiques rituelles sont souvent effectuées par les membres de la famille et les praticiens bouddhistes pour aider à guider la conscience du défunt vers une renaissance positive.

Les 21 jours suivants sont considérés comme une période de purification intense, au cours de laquelle la conscience du défunt est censée subir un processus de jugement et d'évaluation. Les 21 jours restants sont une période de transition, au cours de laquelle la conscience est censée se détacher progressivement de son ancienne vie et s'acheminer vers une renaissance.

Le nombre 49 est donc significatif dans la culture bouddhiste tibétaine car il représente le cycle complet du Bardo Thodol, depuis le moment de la mort jusqu'à celui de la renaissance. Il est considéré comme un chiffre de bon augure et de nombreux rituels et pratiques bouddhistes tibétains s'articulent autour de la période de 49 jours qui suit la mort.



Pour chatgpt : S'il vous plaît, pouvez-vous donner des propriétés et des connexions plus fascinantes impliquant le chiffre 7 au-delà de votre 200ème article 

Auteur: MG

Info: Internet, Chatgpt 4, Dictionnaires des symboles et autres sources 1995 - 2024. *Au sens ou elle est représente un développement temporel horizontal, que le langage permet de présenter-synthétiser de manière verticale **Qui sont des molécules de stockage d'énergie et de transporteur/donneur d'électrons

[ nombre ] [ Dieu ] [ méta-moteur ] [ symbole ] [ inventaire ]

 
Commentaires: 1