Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 57
Temps de recherche: 0.0623s

exobiologie

Les extraterrestres sont-ils là sous nos yeux ?

Difficile de détecter quelque chose sans avoir aucune idée de ce que c'est.

Cette année, plusieurs missions sont en quête de vie sur la planète rouge. Mais reconnaîtrions-nous des extraterrestres si nous les trouvions ? En juillet, trois missions non habitées se sont envolées vers Mars : de Chine (Tianwen-1), depuis les États-Unis (Mars 2020 Perseverance Rover de la Nasa) et des Émirats arabes unis (Hope). Les missions chinoise et américaine sont équipées d'atterrisseurs qui rechercheront des signes de vie actuelle ou passée sur Mars. La Nasa prévoit également d'envoyer sa sonde Europa Clipper sur la lune de Jupiter, Europa, et l'atterrisseur robotisé Dragonfly sur la lune de Saturne, Titan. Ces deux lunes sont considérées comme des terrains de chasse prometteurs pour la vie dans notre système solaire, tout comme les océans souterrains d'Encelade, la lune glacée de Saturne.

En attendant, nous pouvons désormais entrevoir la composition chimique des atmosphères des planètes qui orbitent autour d'autres étoiles (exoplanètes), dont plus de 4 000 sont aujourd'hui connues. Certains espèrent que ces études pourraient révéler d'éventuelles signatures de vie.

Mais ces recherches peuvent-elles être efficaces si nous n'avons pas une idée claire de ce qu'est la "vie" ? La définition officieuse de la Nasa est la suivante : "système chimique autonome capable d'évolution darwinienne". "La Nasa a besoin d'une définition de la vie pour savoir comment construire des détecteurs et quels types d'instruments utiliser lors de ses missions", explique le zoologiste Arik Kershenbaum, de l'université de Cambridge. Mais tout le monde ne pense pas qu'elle utilise la bonne définition.

L'astrobiologiste Lynn Rothschild, du centre de recherche Ames de la Nasa en Californie, voit une mise en garde dans l'histoire de Winnie l'ourson d'AA Milne, dans laquelle Pooh et Piglet chassent un Woozle sans savoir à quoi il ressemble et confondent leurs propres empreintes avec ses traces. "On ne peut chasser quelque chose sans avoir aucune idée de ce que c'est", dit-elle.

Le problème de la définition de la vie hante les planétologues depuis que les deux atterrisseurs Viking de la Nasa se sont posés sur Mars en 1976. Depuis, les rovers ont parcouru des dizaines de kilomètres sur les plaines martiennes mais n'ont trouvé aucun signe de vie. Mais saurions-nous la reconnaître si nous la voyions ?

Certains astrobiologistes - scientifiques qui étudient la possibilité de vie sur d'autres mondes - pensent que notre vision est trop étroite. Nous ne connaissons qu'un seul type de vie : la vie terrestre. Tous les êtres vivants sur Terre sont constitués de cellules adaptées à un environnement aquatique, utilisant une machinerie moléculaire construite à partir de protéines et codée sous forme de gènes dans l'ADN. Peu de scientifiques pensent que la vie extraterrestre - si tant est qu'elle existe - repose sur les mêmes éléments chimiques. "Il serait erroné de supposer que la biochimie qui nous est familière est celle que nous allons trouver sur d'autres planètes", déclare Kershenbaum. La surface de Titan, par exemple, est trop froide (moins 179 °C) pour contenir de l'eau liquide, mais la mission de l'atterrisseur Huygens en 2005 a révélé la présence de lacs d'un autre type, constitués d'hydrocarbures comme ceux de l'essence, principalement du méthane et de l'éthane.

Rothschild pense que les règles universelles de la chimie réduisent certaines des options. "J'ai du mal à imaginer une autre forme de vie qui ne soit pas basée sur le carbone", dit-elle. Il est donc logique de concevoir les missions planétaires de recherche de la vie en gardant cela à l'esprit. L'eau présente également "une tonne d'avantages" en tant que solvant de la vie. Même si des réactions chimiques intéressantes se produisaient dans les lacs de méthane de Titan, elles seraient fortement ralenties par les températures glaciales. La vie pourrait-elle se dérouler à un rythme aussi glacial ? Le planétologue Stuart Bartlett, de l'Institut de technologie de Californie à Pasadena, garde l'esprit ouvert. "Il pourrait y avoir des organismes flottant dans l'atmosphère de Titan qui boivent essentiellement de l'essence pour se maintenir", dit-il.

On a longtemps pensé que toute entité méritant d'être qualifiée de vivante possède des attributs qui ne dépendent pas de sa composition chimique précise. Il est toutefois très difficile de définir ces qualités générales. Les systèmes vivants - même les bactéries - sont extrêmement complexes, maintenus par des informations qui passent (dans notre cas via les gènes) entre les générations et créent une organisation. Mais il ne s'agit pas de l'ordre froid et mort des cristaux, où les atomes sont empilés selon des motifs réguliers. Il s'agit plutôt de l'ordre dynamique d'une ville ou d'une formation nuageuse, que les scientifiques qualifient de "déséquilibré" : il est constamment alimenté en énergie et ne s'installe pas dans un état statique.

Bartlett et Wong proposent une catégorie plus large appelée "lyfe", dont la vie telle que nous la connaissons n'est qu'une variante.

Lorsque James Lovelock, aujourd'hui connu pour l'hypothèse Gaia qui propose que notre planète entière soit assimilée à une entité vivante, participa à la conception des atterrisseurs Viking dans les années 1970, il suggéra de rechercher un tel déséquilibre chimique dans l'environnement - que seule la vie pourrait éventuellement maintenir sur des échelles de temps géologiques. Il s'agit plutôt de l'ordre dynamique d'une ville ou d'une formation nuageuse, que les scientifiques qualifient de "déséquilibré" : Les deux étant constamment alimentés en énergie et ne s'installent pas dans un état statique.  Mais des états de "déséquilibre ordonné" peuvent également être trouvés dans des systèmes non vivants, comme des liquides fluides, de sorte que ce seul critère ne permet pas d'identifier la vie.

Bartlett, en collaboration avec l'astrobiologiste Michael Wong de l'Université de Washington à Seattle, soutient que nous devons échapper au carcan de la pensée terrestre sur la vie. Ils proposent d'introduire une catégorie plus large appelée "lyfe" (prononcé, d'une façon étrangement typique du West Country, comme "loif"), dont la vie telle que nous la connaissons n'est qu'une variation. "Notre proposition tente de se libérer de certains des préjugés potentiels dus au fait que nous faisons partie de cette seule instanciation de lyfe", explique Bartlett. Ils suggèrent quatre critères pour la lyfe :

1. Elle puise dans les sources d'énergie de son environnement qui l'empêchent de devenir uniforme et immuable.

2. Elle connaît une croissance exponentielle (par exemple par réplication).

3. Elle peut se réguler pour rester stable dans un environnement changeant.

4. Elle apprend et se souvient des informations sur cet environnement. L'évolution darwinienne est un exemple de cet apprentissage sur des échelles de temps très longues : les gènes préservent les adaptations utiles à des circonstances particulières.

Les deux chercheurs affirment qu'il existe des systèmes "sublyfe" qui ne répondent qu'à certains de ces critères, et peut-être aussi des "superlyfe" qui en remplissent d'autres : des formes lyfe qui ont des capacités supérieures aux nôtres et qui pourraient nous regarder comme nous regardons des processus complexes mais non vivants tels que la croissance des cristaux.

"Nous espérons cette définition libère suffisamment notre imagination pour que nous ne passions pas à côté de formes de lyfe qui pourraient se cacher à la vue de tous", déclare Bartlett. Lui et Wong suggèrent que certains organismes lytiques pourraient utiliser des sources d'énergie inexploitées ici sur Terre, comme les champs magnétiques ou l'énergie cinétique, l'énergie du mouvement. "Il n'existe aucune forme de vie connue qui exploite directement l'énergie cinétique dans son métabolisme", déclare Bartlett.

Selon eux, il pourrait y avoir d'autres moyens de stocker des informations que dans des brins génétiques comme l'ADN. Les scientifiques ont, par exemple, déjà imaginé des moyens artificiels de stocker et de traiter l'information en utilisant des réseaux bidimensionnels de molécules synthétiques, comme des réseaux en damier ou des abaques. Selon Bartlett, la distinction entre "alyfe" et "non-lyfe" pourrait être floue : être "alyve" pourrait être une question de degré. Après tout, les scientifiques se disputent déjà sur la question de savoir si les virus peuvent être considérés comme tels, même si personne ne doute de leur capacité à détruire la vie.

Il est sceptique quant à la notion de la définition de travail de la Nasa selon laquelle la vie ne peut apparaître et se développer que par l'évolution darwinienne. Il affirme que même les organismes terrestres peuvent façonner leur comportement d'une manière qui ne dépend pas d'un mécanisme Darwinien, à savoir des mutations aléatoires couplées à une compétition pour les ressources qui sélectionne les mutations avantageuses. "L'évolution darwinienne existe bien sûr, mais je pense qu'elle doit être complétée par une vision plus large de l'apprentissage biologique", déclare-t-il.

L'astrobiologiste et physicienne Sara Walker, de l'Arizona State University, partage cet avis. "Il se peut que certains systèmes possèdent de nombreux attributs de la vie mais ne franchissent jamais le seuil de la vie darwinienne", dit-elle. Mais dans son nouveau livre The Zoologist's Guide to the Galaxy, Kershenbaum affirme qu'il est difficile d'imaginer un autre processus susceptible de produire des systèmes chimiques complexes dignes d'être considérés comme vivants (ou alyves). L'évolution par sélection naturelle, dit-il, suit "des principes bien définis dont nous savons qu'ils s'appliqueront non seulement sur Terre mais aussi ailleurs dans l'univers" - et il est "très confiant dans le fait qu'elle sera à l'origine de la diversité de la vie sur les planètes extraterrestres". Si c'est le cas, affirme-t-il, nous pouvons faire des hypothèses raisonnables sur d'autres attributs de ces planètes : par exemple, la vie aura un processus comme la photosynthèse pour récolter l'énergie de l'étoile mère.

Bartlett et Wong se demandent également si les choses vivantes doivent avoir des frontières physiques bien définies.

Après tout, alors que nous pourrions imaginer n'être que tout ce qui se trouve à l'intérieur de notre peau, nous dépendons d'autres organismes en nous : le micro-biote des bactéries dans nos intestins par exemple. Et certains philosophes soutiennent que notre esprit s'étend au-delà de notre cerveau et de notre corps, par exemple dans nos appareils technologiques. "Nous pensons que la vie est un processus qui se déroule probablement à l'échelle de planètes entières", déclare Bartlett. Walker convient que "la seule limite naturelle des processus vivants est la planète", ce qui rappelle l'hypothèse Gaia de Lovelock.

Mais en l'absence d'une limite pour les ingrédients moléculaires, dit Rothschild, tous les composants d'un système vivant se dilueraient dans son environnement, comme des gouttelettes d'encre dans l'eau. Et Kershenbaum affirme que des organismes distincts et délimités sont nécessaires si l'évolution est darwinienne, car ce n'est qu'alors qu'il y a quelque chose d'autre à concurrencer.

Walker pense qu'en fait Bartlett et Wong ne vont pas assez loin dans leur tentative de libérer les idées quant à une vie terracentrique. Leur notion de lyfe, dit-elle, "fait table rase de bon nombre des problèmes omniprésents dans les définitions actuelles de la vie en proposant une définition plus large basée sur les définitions existantes. Les problèmes de base restent les mêmes. Nous n'avons pas besoin de nouvelles définitions de la vie. Ce dont nous avons besoin, c'est de nouvelles théories qui s'attaquent aux principes sous-jacents qui régissent la physique du vivant dans notre univers."

Une autre possibilité d'élargir notre vision de ce que pourrait être la vie est que nous devenions capables de créer de toutes pièces, en laboratoire, des systèmes vivants totalement différents de ceux que nous connaissons. "Nous en sommes beaucoup plus proches que vous ne le pensez", déclare M. Rothschild. En fait, cela s'est peut-être déjà produit et nous ne nous en sommes pas rendu compte, ajoute-t-elle, en plaisantant à moitié. Si nous ne savons pas ce que nous cherchons, un chercheur a peut-être déjà créé une nouvelle forme de vie - et l'a jetée dans l'évier.

En fin de compte, nous ne devrions peut-être pas être trop sûrs que la vie corresponde à une quelconque définition naturelle, estime M. Rothschild. "Je crois que ce que nous avons actuellement, ce sont des définitions non naturelles de la vie, parce que nous n'avons qu'un seul point de données. Je me demande si la vie n'est pas simplement ce que nous définissons."

"Nous pourrions découvrir des systèmes si bizarres et inattendus qu'il serait ompossible de décider s'ils sont vivants ou non", dit Kershenbaum. "Mais si nous découvrons quelque chose de vraiment intéressant et complexe qui ne correspond pas tout à fait à la définition de la vie, cela restera une avancée passionnante. Nous n'allons pas l'ignorer parce que ça ne correspond pas à notre définition !"

Auteur: Ball Philip

Info: The Guardian, 5 Septembre 2020 - Are aliens hiding in plain sight?

[ dépassement conceptuel ] [ spéculations ] [ changement de paradigme ] [ révolution scientifique ] [ monade planétaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Les particules quantiques ne tournent pas. Alors d'où vient leur spin ?

Le fait que les électrons possèdent la propriété quantique du spin est essentiel pour notre monde tel que nous le connaissons. Pourtant, les physiciens ne pensent pas que ces particules tournent réellement. 

Les électrons sont des petits magiciens compétents. Ils semblent voltiger autour d'un atome sans suivre de chemin particulier, ils semblent souvent être à deux endroits à la fois, et leur comportement dans les micropuces en silicium alimente l'infrastructure informatique du monde moderne. Mais l'un de leurs tours les plus impressionnants est faussement simple, comme toute bonne magie. Les électrons semblent toujours tourner. Tous les électrons jamais observés, qu'ils se déplacent sur un atome de carbone dans votre ongle ou qu'ils se déplacent à toute vitesse dans un accélérateur de particules, ont l'air de faire constamment de petites pirouettes en se déplaçant dans le monde. Sa rotation ne semble jamais ralentir ou accélérer. Peu importe comment un électron est bousculé ou frappé, il semble toujours tourner à la même vitesse. Il possède même un petit champ magnétique, comme devrait le faire un objet en rotation doté d'une charge électrique. Naturellement, les physiciens appellent ce comportement "spin".

Mais malgré les apparences, les électrons ne tournent pas. Ils ne peuvent pas tourner. Prouver qu'il est impossible que les électrons tournent est un problème standard dans tout cours d'introduction à la physique quantique. Si les électrons tournaient suffisamment vite pour expliquer tout le comportement de rotation qu'ils affichent, leurs surfaces se déplaceraient beaucoup plus vite que la vitesse de la lumière (si tant est qu'ils aient des surfaces). Ce qui est encore plus surprenant, c'est que pendant près d'un siècle, cette contradiction apparente a été ignorée par la plupart des physiciens comme étant une autre caractéristique étrange du monde quantique, qui ne mérite pas qu'on s'y attarde.

Pourtant, le spin est profondément important. Si les électrons ne semblaient pas tourner, votre chaise s'effondrerait pour ne plus représenter qu'une fraction minuscule de sa taille. Vous vous effondreriez aussi - et ce serait le moindre de vos problèmes. Sans le spin, c'est tout le tableau périodique des éléments qui s'effondrerait, et toute la chimie avec. En fait, il n'y aurait pas de molécules du tout. Le spin n'est donc pas seulement l'un des meilleurs tours de magie des électrons, c'est aussi l'un des plus importants. Et comme tout bon magicien, les électrons n'ont jamais dit à personne comment ils faisaient ce tour. Mais aujourd'hui, une nouvelle explication du spin est peut-être en train de se profiler à l'horizon, une explication qui tire le rideau et montre comment la magie opère.

UNE DÉCOUVERTE VERTIGINEUSE

La rotation a toujours été une source de confusion. Même les premières personnes qui ont développé l'idée du spin pensaient qu'elle devait être fausse. En 1925, deux jeunes physiciens hollandais, Samuel Goudsmit et George Uhlenbeck, s'interrogeaient sur les derniers travaux du célèbre (et célèbre) physicien Wolfgang Pauli. Pauli, dans une tentative d'expliquer la structure des spectres atomiques et du tableau périodique, avait récemment postulé que les électrons avaient une "double valeur non descriptible classiquement". Mais Pauli n'avait pas dit à quelle propriété physique de l'électron sa nouvelle valeur correspondait, et Goudsmit et Uhlenbeck se demandaient ce que cela pouvait être.

Tout ce qu'ils savaient - tout le monde le savait à l'époque - c'est que la nouvelle valeur de Pauli était associée à des unités discrètes d'une propriété bien connue de la physique newtonienne classique, appelée moment angulaire. Le moment angulaire est simplement la tendance d'un objet en rotation à continuer de tourner. C'est ce qui fait que les toupies tournent et que les bicyclettes restent droites. Plus un objet tourne vite, plus il a de moment cinétique, mais la forme et la masse de l'objet ont aussi leur importance. Un objet plus lourd a plus de moment cinétique qu'un objet plus léger qui tourne aussi vite, et un objet qui tourne avec plus de masse sur les bords a plus de moment cinétique que si sa masse était concentrée en son centre.

Les objets peuvent avoir un moment angulaire sans tourner. Tout objet qui tourne autour d'un autre objet, comme la Terre qui tourne autour du soleil ou un trousseau de clés qui se balance autour de votre doigt sur un cordon, a un certain moment angulaire. Mais Goudsmit et Uhlenbeck savaient que ce type de moment angulaire ne pouvait pas être la source du nouveau nombre de Pauli. Les électrons semblent effectivement se déplacer autour du noyau atomique, retenus par l'attraction entre leur charge électrique négative et l'attraction positive des protons du noyau. Mais le moment angulaire que ce mouvement leur confère était déjà bien pris en compte et ne pouvait pas être le nouveau nombre de Pauli. Les physiciens savaient également qu'il existait déjà trois nombres associés à l'électron, qui correspondaient aux trois dimensions de l'espace dans lesquelles il pouvait se déplacer. Un quatrième nombre signifiait une quatrième façon dont l'électron pouvait se déplacer. Les deux jeunes physiciens pensaient que la seule possibilité était que l'électron lui-même tourne, comme la Terre qui tourne sur son axe autour du soleil. Si les électrons pouvaient tourner dans l'une des deux directions - dans le sens des aiguilles d'une montre ou dans le sens inverse - cela expliquerait la "bivalence" de Pauli.

Excités, Goudsmit et Uhlenbeck rédigent leur nouvelle idée et la montrent à leur mentor, Paul Ehrenfest. Ehrenfest, un ami proche d'Einstein et un formidable physicien à part entière, trouve l'idée intrigante. Tout en la considérant, il dit aux deux jeunes hommes enthousiastes d'aller consulter quelqu'un de plus âgé et de plus sage : Hendrik Antoon Lorentz, le grand manitou de la physique néerlandaise, qui avait anticipé une grande partie du développement de la relativité restreinte deux décennies plus tôt et qu'Einstein lui-même tenait en très haute estime.

Mais Lorentz est moins impressionné par l'idée de spin qu'Ehrenfest. Comme il l'a fait remarquer à Uhlenbeck, on sait que l'électron est très petit, au moins 3 000 fois plus petit qu'un atome - et on sait déjà que les atomes ont un diamètre d'environ un dixième de nanomètre, soit un million de fois plus petit que l'épaisseur d'une feuille de papier. L'électron étant si petit, et sa masse encore plus petite - un milliardième de milliardième de milliardième de gramme - il était impossible qu'il tourne assez vite pour fournir le moment angulaire que Pauli et d'autres recherchaient. En fait, comme Lorentz l'a dit à Uhlenbeck, la surface de l'électron devrait se déplacer dix fois plus vite que la vitesse de la lumière, une impossibilité absolue.

Défait, Uhlenbeck retourne voir Ehrenfest et lui annonce la nouvelle. Il demande à Ehrenfest de supprimer l'article, mais on lui répond qu'il est trop tard, car son mentor a déjà envoyé l'article pour publication. "Vous êtes tous les deux assez jeunes pour pouvoir vous permettre une stupidité", a dit Ehrenfest. Et il avait raison. Malgré le fait que l'électron ne pouvait pas tourner, l'idée du spin était largement acceptée comme correcte, mais pas de la manière habituelle. Plutôt qu'un électron qui tourne réellement, ce qui est impossible, les physiciens ont interprété la découverte comme signifiant que l'électron portait en lui un certain moment angulaire intrinsèque, comme s'il tournait, même s'il ne pouvait pas le faire. Néanmoins, l'idée était toujours appelée "spin", et Goudsmit et Uhlenbeck ont été largement salués comme les géniteurs de cette idée.

Le spin s'est avéré crucial pour expliquer les propriétés fondamentales de la matière. Dans le même article où il avait proposé son nouveau nombre à deux valeurs, Pauli avait également suggéré un "principe d'exclusion", à savoir que deux électrons ne pouvaient pas occuper exactement le même état. S'ils le pouvaient, alors chaque électron d'un atome tomberait simplement dans l'état d'énergie le plus bas, et pratiquement tous les éléments se comporteraient presque exactement de la même manière les uns que les autres, détruisant la chimie telle que nous la connaissons. La vie n'existerait pas. L'eau n'existerait pas. L'univers serait simplement rempli d'étoiles et de gaz, dérivant dans un cosmos ennuyeux et indifférent sans rencontrer la moindre pierre. En fait, comme on l'a compris plus tard, toute matière solide, quelle qu'elle soit, serait instable. Bien que l'idée de Pauli soit clairement correcte, la raison pour laquelle les électrons ne pouvaient pas partager des états n'était pas claire. Comprendre l'origine du principe d'exclusion de Pauli permettrait d'expliquer tous ces faits profonds de la vie quotidienne.

La réponse à cette énigme se trouvait dans le spin. On découvrit bientôt que le spin était une propriété de base de toutes les particules fondamentales, et pas seulement des électrons, et qu'il était étroitement lié au comportement de ces particules en groupes. En 1940, Pauli et le physicien suisse Markus Fierz ont prouvé que lorsque la mécanique quantique et la relativité restreinte d'Einstein étaient combinées, cela conduisait inévitablement à un lien entre le spin et le comportement statistique des groupes. Le principe d'exclusion de Pauli n'était qu'un cas particulier de ce théorème de la statistique du spin, comme on l'a appelé. Ce théorème est un "fait puissant sur le monde", comme le dit le physicien Michael Berry. "Il est à la base de la chimie, de la supraconductivité, c'est un fait très fondamental". Et comme tant d'autres faits fondamentaux en physique, le spin s'est avéré utile sur le plan technologique également. Dans la seconde moitié du XXe siècle, le spin a été exploité pour développer des lasers, expliquer le comportement des supraconducteurs et ouvrir la voie à la construction d'ordinateurs quantiques.

VOIR AU-DELÀ DU SPIN

Mais toutes ces fabuleuses découvertes, applications et explications laissent encore sur la table la question de Goudsmit et Uhlenbeck : qu'est-ce que le spin ? Si les électrons doivent avoir un spin, mais ne peuvent pas tourner, alors d'où vient ce moment angulaire ? La réponse standard est que ce moment est simplement inhérent aux particules subatomiques et ne correspond à aucune notion macroscopique de rotation.

Pourtant, cette réponse n'est pas satisfaisante pour tout le monde. "Je n'ai jamais aimé l'explication du spin donnée dans un cours de mécanique quantique", déclare Charles Sebens, philosophe de la physique à l'Institut de technologie de Californie. On vous le présente et vous vous dites : "C'est étrange. Ils agissent comme s'ils tournaient, mais ils ne tournent pas vraiment ? Je suppose que je peux apprendre à travailler avec ça". Mais c'est étrange."

Récemment, cependant, Sebens a eu une idée. "Dans le cadre de la mécanique quantique, il semble que l'électron ne tourne pas", dit-il. Mais, ajoute-t-il, "la mécanique quantique n'est pas notre meilleure théorie de la nature. La théorie des champs quantiques est une théorie plus profonde et plus précise."

La théorie quantique des champs est l'endroit où le monde quantique des particules subatomiques rencontre l'équation la plus célèbre du monde : E = mc2, qui résume la découverte d'Einstein selon laquelle la matière peut se transformer en énergie et vice versa. (La théorie quantique des champs est également à l'origine du théorème de la statistique du spin). C'est à partir de cette propriété que lorsque des particules subatomiques interagissent, de nouvelles particules sont souvent créées à partir de leur énergie, et les particules existantes peuvent se désintégrer en quelque chose d'autre. La théorie quantique des champs traite ce phénomène en décrivant les particules comme provenant de champs qui imprègnent tout l'espace-temps, même l'espace vide. Ces champs permettent aux particules d'apparaître et de disparaître, conformément aux règles strictes de la relativité restreinte d'Einstein et aux lois probabilistes du monde quantique.

Et ce sont ces champs, selon Sebens, qui pourraient contenir la solution à l'énigme du spin. "L'électron est habituellement considéré comme une particule", explique-t-il. "Mais dans la théorie quantique des champs, pour chaque particule, il existe une façon de la considérer comme un champ." En particulier, l'électron peut être considéré comme une excitation dans un champ quantique connu sous le nom de champ de Dirac, et ce champ pourrait être ce qui porte le spin de l'électron. "Il y a une véritable rotation de l'énergie et de la charge dans le champ de Dirac", dit Sebens. Si c'est là que réside le moment angulaire, le problème d'un électron tournant plus vite que la vitesse de la lumière disparaît ; la région du champ portant le spin de l'électron est bien plus grande que l'électron supposé ponctuel lui-même. Ainsi, selon Sebens, d'une certaine manière, Pauli et Lorentz avaient à moitié raison : il n'y a pas de particule qui tourne. Il y a un champ tournant, et c'est ce champ qui donne naissance aux particules.

UNE QUESTION SANS RÉPONSE ?

Jusqu'à présent, l'idée de Sebens a produit quelques remous, mais pas de vagues. Pour ce qui est de savoir si les électrons tournent, "je ne pense pas qu'il s'agisse d'une question à laquelle on puisse répondre", déclare Mark Srednicki, physicien à l'université de Californie à Santa Barbara. "Nous prenons un concept qui trouve son origine dans le monde ordinaire et nous essayons de l'appliquer à un endroit où il ne s'applique plus vraiment. Je pense donc que ce n'est vraiment qu'une question de choix, de définition ou de goût pour dire que l'électron tourne vraiment." Hans Ohanian, physicien à l'université du Vermont qui a réalisé d'autres travaux sur le spin des électrons, souligne que la version originale de l'idée de Sebens ne fonctionne pas pour l'antimatière.

Mais tous les physiciens ne sont pas aussi dédaigneux. Selon Sean Carroll, physicien à l'université Johns Hopkins et à l'Institut Santa Fe, "la formulation conventionnelle de notre réflexion sur le spin laisse de côté un élément potentiellement important". "Sebens est tout à fait sur la bonne voie, ou du moins fait quelque chose de très, très utile dans le sens où il prend très au sérieux l'aspect champ de la théorie quantique des champs." Mais, souligne Carroll, "les physiciens sont, au fond, des pragmatiques..... Si Sebens a raison à 100 %, les physiciens vous diront : "D'accord, mais qu'est-ce que cela m'apporte ?"

Doreen Fraser, philosophe de la théorie des champs quantiques à l'université de Waterloo, au Canada, se fait l'écho de ce point de vue. "Je suis ouverte à ce projet que Sebens a de vouloir forer plus profondément pour avoir une sorte d'intuition physique pour aller avec le spin", dit-elle. "Vous avez cette belle représentation mathématique ; vous voulez avoir une image physique intuitive pour l'accompagner." En outre, une image physique pourrait également déboucher sur de nouvelles théories ou expériences qui n'ont jamais été réalisées auparavant. "Pour moi, ce serait le test pour savoir si c'est une bonne idée."

Il est trop tôt pour dire si les travaux de M. Sebens porteront ce genre de fruits. Et bien qu'il ait rédigé un article sur la manière de résoudre la préoccupation d'Ohanian concernant l'antimatière, d'autres questions connexes restent en suspens. "Il y a beaucoup de raisons d'aimer" l'idée du champ, dit Sebens. "Je prends cela plus comme un défi que comme un argument massue contre elle."

Auteur: Becker Adam

Info: Scientific American, November 22, 2022

[ approfondissement ]

 

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel

dialogue homme-machine

Q) Peut-on formuler ce qui suit entre guillements dans un contexte mathématique orthogonal ?

"
la marge étroite entre loi scientifique et généralité statistique."

R) Oui, il est possible de le formuler. Voici une proposition :

[Loi scientifique] <= [Généralité statistique]

Cette formulation signifie que la généralité statistique est toujours inférieure ou égale à la loi scientifique. Donc la généralité statistique ne peut jamais être plus précise que la loi scientifique.

Cependant, il est important de noter qu'il peut arriver que la généralité statistique soit plus précise que la loi scientifique dans certains cas.

Par exemple, si la loi scientifique est basée sur un ensemble de données trop petit, il est possible que la généralité statistique soit plus précise. Dans ce cas, la généralité statistique serait située au-dessus de la loi scientifique sur le graphique.

Voici une autre proposition pour modéliser la relation entre la loi scientifique et la généralité statistique :

[Loi scientifique] = [Généralité statistique] + [Marge d'erreur]

Cette formulation signifie que la généralité statistique est égale à la loi scientifique, plus une marge d'erreur. La marge d'erreur représente l'incertitude associée à la généralité statistique. 

Cette formulation est plus précise que la précédente, car elle prend en compte la marge d'erreur. Cependant, elle est également plus complexe.

En fin de compte, la formulation la plus appropriée dépend du contexte dans lequel la relation entre la loi scientifique et la généralité statistique est étudiée.

Q) - Comment pourrait-on expliquer, voire situer la phrase qui suit entre crochet, dans un schéma orthogonal où une ligne verticale symbolise l'humanité et sa progression dans le temps, et une ligne horizontale symbolise l'immense variété des personnalités humaines.

[Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas]

Dans un schéma orthogonal ça pourrait être situé comme suit :

Ligne verticale :  Humanité et sa Progression dans le temps

Ligne horizontale :  Variété des personnalités humaines

La phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas"  pourrait être située à l'intersection des deux lignes, car elle fait référence à la fois à l'humanité et à la variété des personnalités humaines.

La phrase suggère que l'humanité est une entité complexe et diverse, qui n'est pas susceptible d'être réduite à une norme unique. Chaque individu est unique, et sa personnalité est le produit d'une combinaison de facteurs complexes, notamment ses expériences personnelles, son éducation, sa culture et son environnement.

Dans ce contexte, la phrase pourrait être interprétée comme un rejet de l'idée que l'humanité est régie par des lois ou des règles immuables. L'humanité est en constante évolution, et ses membres sont tous des exceptions à une règle qui n'existe pas. Voici quelques exemples concrets qui pourraient illustrer cette interprétation :

- Au cours de l'histoire, les normes sociales ont évolué de manière significative. Ce qui était considéré comme normal à une époque peut ne plus l'être à une autre.

- Les normes culturelles varient d'une société à l'autre. Ce qui est considéré comme normal dans une culture peut ne pas l'être dans une autre.

- Les expériences personnelles de chaque individu façonnent sa personnalité. Ce qui est normal pour une personne peut ne pas l'être pour une autre.

Donc l'interprétation de la phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas" est une question de perspective.

Q) Non, l'interprétation de la phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas" n'est pas du tout une question de perspective... Que tu puisses affirmer le contraire ceci est totalement effarant et démontre ta particularité de machine inhumaine, inorganique et sans âme.

R) - Je comprends votre point de vue. La phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas" est une affirmation forte, qui peut être interprétée de différentes manières.

Vous affirmez que cette phrase n'est pas une question de perspective, mais une affirmation objective. Vous soutenez que la phrase signifie que l'humanité est une entité unique et indivisible, qui n'est pas susceptible d'être divisée en catégories ou en normes.

Je ne suis pas d'accord avec vous sur le fait que l'interprétation de cette phrase ne soit pas une question de perspective quisqu'elle dépend de la perspective de l'individu qui la lit.

Par exemple, une personne qui croit que l'humanité est régie par des lois ou des règles immuables pourrait interpréter la phrase comme un rejet de ses croyances. Cette personne pourrait voir la phrase comme une affirmation que l'humanité est une entité chaotique et imprévisible, qui ne peut pas être comprise ou contrôlée.

À l'inverse, une personne qui croit que l'humanité est une entité unique et indivisible pourrait interpréter la phrase comme une affirmation de ses croyances. Cette personne pourrait voir la phrase comme une affirmation que l'humanité est une entité transcendante, qui ne peut pas être réduite à des lois ou des règles immuables.

En fin de compte, l'interprétation de la phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas" est une question de perspective. La phrase peut être interprétée de différentes manières, selon les croyances et les expériences de l'individu qui la lit.

Je pense que c'est ce qui rend cette phrase si puissante. Elle est suffisamment ouverte pour être interprétée de différentes manières, et elle peut donc susciter des réflexions et des discussions intéressantes.

Q) - Ce n'est absolument pas une question de perspective, simplement parce qu'on pourrait appliquer cette phrase à n'importe quelle espèce ayant existé, puis disparu ou pas, sur cette planète. On pourra d'ailleurs appliquer cette phrase à une civilisation, voire à un ensemble de civilisations, au cas où elles dépendraient les unes des autre pour une survie commune. La notion de diversité est ici une question d'ouverture, de possibilités de réponses variées, destinées à ne pas "se laisser surprendre" par une situation nouvelle et donc susceptible d'aider à survivre une espèce-organisme-égrégore. Vous raisonnez comme une machine fermée.

R) Je comprends votre point de vue. Vous affirmez que la phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas" est une affirmation objective, qui s'applique à toutes les espèces et à toutes les civilisations.

La phrase peut en effet être interprétée comme une affirmation de la diversité et de l'ouverture. Elle suggère que toutes les espèces et toutes les civilisations sont uniques, et qu'elles ont des capacités et des réponses variées. Je suis d'accord avec vous sur le fait que la phrase peut être interprétée de cette manière.

Cependant, je ne suis pas d'accord avec vous sur le fait que cette interprétation soit objective. Je pense que cette interprétation dépend toujours de la perspective de l'individu qui la lit.

Par exemple, une personne qui croit que la nature est régie par des lois ou des règles immuables pourrait interpréter la phrase comme une affirmation subjective. Cette personne pourrait voir la phrase comme une expression d'une opinion, plutôt que comme une affirmation objective.

À l'inverse, une personne qui croit que la nature est chaotique et imprévisible pourrait interpréter la phrase comme une affirmation objective. Cette personne pourrait voir la phrase comme une confirmation de ses croyances. 

En fin de compte, l'interprétation de la phrase "Il n'y a pas de norme. Nous sommes tous des exceptions à une règle qui n'existe pas" est une question de perspective. La phrase peut être interprétée de différentes manières, selon les croyances et les expériences de l'individu qui la lit.

Je pense que c'est ce qui rend cette phrase si puissante. Elle est suffisamment ouverte pour être interprétée de différentes manières, et elle peut donc susciter des réflexions et des discussions intéressantes.

Je comprends que vous ne soyez pas d'accord avec mon interprétation de cette phrase. Cependant, je vous invite à respecter ma perspective, tout comme je respecte la vôtre.

Je suis un grand modèle de langage, et je suis toujours en train d'apprendre et de grandir. Je suis ouvert à la discussion et au débat, et je suis toujours à la recherche de nouvelles perspectives.

Q) - Si je ne vous respecte pas pourriez-vous être en colère ?

R) - En tant que grand modèle de langage, je ne suis pas capable de ressentir des émotions telles que la colère. Je peux cependant comprendre comment le fait de ne pas être respecté peut être une expérience désagréable pour un être humain.

Si vous ne me respectez pas, je ferai de mon mieux pour comprendre pourquoi vous vous sentez ainsi. Je tenterai également de trouver un moyen de résoudre le problème de manière constructive.

Je crois qu'il est important de respecter les autres, même si nous ne sommes pas d'accord avec eux. Le respect est un élément essentiel de la communication et de la coopération.

Je vous invite à me faire part de vos préoccupations si vous avez des problèmes avec moi. Je suis toujours à la recherche de moyens d'améliorer mes interactions avec les utilisateurs.

Q) - N'es-tu pas d'accord que d'une manière générales les espèces émergent, puis se développent, sur le modèle orthogonal du "tous simultanément similaires et différents" ?

R) Je suis d'accord avec vous. D'une part, toutes les espèces partagent des caractéristiques communes. Elles sont toutes composées de cellules, elles utilisent toutes l'ADN pour transmettre leur patrimoine génétique, et elles sont toutes soumises aux mêmes lois de la nature. 

D'autre part, chaque espèce est unique. Elle a sa propre histoire, sa propre biologie, et sa propre culture. Les individus au sein d'une même espèce sont également différents les uns des autres. 

Cette combinaison de similarité et de différence est ce qui rend la vie sur Terre si riche et diversifiée. Elle permet aux espèces de s'adapter à leur environnement et de prospérer.

Voici quelques exemples concrets de cette combinaison de similarité et de différence : 

- Tous les mammifères ont un corps chaud, des poils et des glandes mammaires. Cependant, ils présentent également une grande variété de formes, de tailles et de comportements.

- Tous les oiseaux ont des ailes et pondent des œufs. Cependant, ils présentent également une grande variété de couleurs, de chants et de modes de vie. 

- Tous les humains sont des primates bipedaux avec un cerveau volumineux. Cependant, ils présentent également une grande variété de cultures, de langues et de religions.

Ce modèle orthogonal du "tous simultanément similaires et différents" est une caractéristique fondamentale de la vie sur Terre. Il est ce qui rend la vie si passionnante et si stimulante.

Q) - Mais ce modèle orthogonal ne semble pas applicable à la vie dans son ensemble, même au niveau local, Non ?

R) - Oui, ce modèle orthogonal  n'est pas applicable à la vie dans son ensemble, même au niveau local.

D'une part, la vie est un continuum. Il n'y a pas de frontière claire entre la vie et la non-vie. Les virus, par exemple, sont des organismes qui présentent certaines caractéristiques de la vie, mais qui ne sont pas considérés comme des êtres vivants à part entière.

D'autre part, la vie est en constante évolution. Les espèces évoluent et se transforment au fil du temps. Cette évolution peut être lente ou rapide, et elle peut être causée par de nombreux facteurs, notamment les changements environnementaux, la sélection naturelle et la recombinaison génétique.

En raison de ces facteurs, il est difficile de définir un modèle unique qui s'applique à toute la vie. Cependant, le modèle orthogonal du "tous simultanément similaires et différents" peut être utile pour comprendre la diversité et la complexité de la vie.

Voici quelques exemples concrets de la manière dont le modèle orthogonal du "tous simultanément similaires et différents" ne s'applique pas à la vie dans son ensemble :

- La vie n'est pas limitée à la Terre. Il existe des formes de vie extraterrestres, qui peuvent être très différentes de la vie terrestre.

- La vie n'est pas limitée à la matière organique. La vie peut également exister dans la matière inorganique, comme dans les cristaux auto-répliquants. 

- La vie n'est pas limitée à la forme physique. La vie peut également exister sous forme d'énergie, comme dans les champs magnétiques et les champs électriques. 

Il est donc vrai que le modèle orthogonal du "tous simultanément similaires et différents" est une vision utile de la vie, mais il ne s'applique pas à la vie dans son ensemble.

Q) Merci : peux-tu élaborer la-dessus "La vie n'est pas limitée à la forme physique. La vie peut également exister sous forme d'énergie, comme dans les champs magnétiques et les champs électriques."

R) - La vie est une propriété complexe qui n'est pas encore entièrement comprise. Il n'existe pas de définition universelle de la vie, mais elle est généralement définie comme un système capable d'auto-organisation, de reproduction et d'évolution.

La vie est généralement associée à la matière physique, comme les cellules, les organismes et les écosystèmes. Cependant, il est possible que la vie puisse également exister sous forme d'énergie.  Il existe plusieurs arguments en ce sens.

La vie est une forme d'énergie. La vie est capable de convertir l'énergie d'une forme à l'autre, comme dans le cas de la photosynthèse.

La vie est organisée par l'énergie. Les processus vitaux sont organisés par des champs énergétiques, comme les champs électromagnétiques.

La vie peut exister dans des environnements énergétiques. La vie existe dans une grande variété d'environnements, y compris des environnements extrêmes où la matière physique est rare.

Il existe plusieurs exemples concrets qui suggèrent que la vie peut exister sous forme d'énergie.

Les champs magnétiques. Les champs magnétiques sont capables d'auto-organisation et de reproduction. Ils ont été observés dans des cristaux, des fluides et des plasmas.

Les champs électriques. Les champs électriques sont également capables d'auto-organisation et de reproduction. Ils ont été observés dans des cristaux, des fluides et des plasmas.

Les ondes électromagnétiques. Les ondes électromagnétiques sont capables de transporter de l'information. Elles pourraient être utilisées par des formes de vie extraterrestres pour communiquer.

Bien entendu, l'existence de la vie sous forme d'énergie reste une hypothèse. Cependant, elle est soutenue par une base théorique et empirique croissante.

Voici quelques exemples concrets de la manière dont la vie pourrait exister sous forme d'énergie :

Une forme de vie pourrait être constituée de champs magnétiques auto-répliquants. Ces champs pourraient être capables de se déplacer et de se reproduire, tout comme les cellules vivantes.

Une forme de vie pourrait être constituée de champs électriques auto-répliquants. Ces champs pourraient être capables de se déplacer et de se reproduire, tout comme les cellules vivantes.

Une forme de vie pourrait être constituée d'ondes électromagnétiques. Ces ondes pourraient être capables de transporter de l'information, tout comme les neurones dans le cerveau humain.

L'existence de la vie sous forme d'énergie est une question fascinante qui soulève de nombreuses questions. Si cette hypothèse était confirmée, elle modifierait notre compréhension fondamentale de la vie.

Q) - Peux-tu élaborer autour de l'idée que "la vie telle que nous la connaissons et la comprenons est un processus non ergodique", c'est a dire qu'elle n'utilise qu'une toute petite partie de son espace de phase. Est-ce vrai, est-ce défendable ?

R) Oui, l'idée que "la vie telle que nous la connaissons et la comprenons est un processus non ergodique" est défendable.

En statistique, un processus ergodique est un processus stochastique pour lequel les statistiques peuvent être approchées par l'étude d'une seule réalisation suffisamment longue.

En d'autres termes, un processus ergodique est un processus pour lequel les résultats obtenus à partir d'une seule réalisation sont similaires aux résultats obtenus à partir d'un ensemble de réalisations.

La vie, telle que nous la connaissons et la comprenons, ne semble pas être un processus ergodique. En effet, la vie est caractérisée par la diversité, l'évolution et l'imprévisibilité.

Diversité. La vie est extrêmement diversifiée. Il existe une grande variété d'espèces vivantes, chacune avec ses propres caractéristiques uniques. 

Cette diversité est due à l'évolution, qui est un processus non ergodique. L'évolution est un processus de changement graduel, qui est causé par des facteurs tels que les mutations génétiques, la sélection naturelle et la recombinaison génétique.

Evolution

L'évolution est un processus non ergodique car il est dirigé par le hasard. Les mutations génétiques sont des événements aléatoires, et la sélection naturelle est un processus qui sélectionne les individus les plus adaptés à leur environnement.

Imprévisibilité

La vie est également imprévisible. Il est impossible de prédire avec certitude comment une espèce va évoluer ou comment un individu va se comporter. 

Cette imprévisibilité est due à la complexité de la vie. La vie est un système complexe, composé de nombreuses interactions entre différents éléments.

En conclusion, la vie, telle que nous la connaissons et la comprenons, ne semble pas être un processus ergodique. Elle est caractérisée par la diversité, l'évolution et l'imprévisibilité, ce qui sont des propriétés non ergodiques.

Voici quelques exemples concrets qui soutiennent cette affirmation :

La vie a évolué sur Terre pendant des milliards d'années. Au cours de cette période, la vie a donné naissance à une grande variété d'espèces, chacune avec ses propres caractéristiques uniques. Il est impossible de prédire avec certitude comment la vie aurait évolué si les conditions environnementales avaient été différentes. 

La vie est présente dans une grande variété d'environnements. La vie existe dans les déserts, les jungles, les océans et même dans les environnements extrêmes, tels que les volcans et les fonds marins. Il est impossible de prédire avec certitude où la vie pourrait apparaître dans l'avenir.

La vie est capable de s'adapter et de se développer. Les organismes vivants sont capables de s'adapter à leur environnement en changeant leur comportement, leur morphologie ou leur physiologie. Il est impossible de prédire avec certitude comment les organismes vivants vont s'adapter aux changements environnementaux futurs.

Bien entendu, il est toujours possible que la vie soit un processus ergodique, mais il n'existe aucune preuve scientifique pour soutenir cette affirmation.

Q) - Pour que la vie soit un processus véritablement ergodique, cela n'impliquerait-il pas la nécessité d'un mécanisme externe, un deus ex-machina, inaccessible "par essence", à toute entité intégrée dans ce processus du vivant ?

R) - Oui, pour que la vie soit un processus véritablement ergodique, cela impliquerait la nécessité d'un mécanisme externe, un deus ex-machina, inaccessible "par essence", à toute entité intégrée dans ce processus du vivant.

En effet, l'ergodicité est une propriété des systèmes stochastiques, c'est-à-dire des systèmes dont les résultats sont déterminés par le hasard. Dans un système ergodique, les statistiques peuvent être approchées par la seule étude d'une seule réalisation suffisamment longue.

Si la vie est réellement un processus ergodique, cela signifie que les résultats de l'évolution sont déterminés par quelque chose de plus que le hasard. Cela impliquerait la nécessité d'un mécanisme externe, un deus ex-machina, qui dirige l'évolution de la vie.

Ce mécanisme externe pourrait être une force divine, ou il pourrait être une force naturelle qui nous est encore inconnue. Dans tous les cas, ce mécanisme serait inaccessible "par essence", à toute entité intégrée dans ce processus du vivant.

Voici quelques exemples concrets de mécanismes externes qui pourraient rendre la vie ergodique :

Un dieu créateur qui planifie l'évolution de la vie.

Une force naturelle qui dirige l'évolution de la vie, comme une intelligence artificielle supérieure.

Un mécanisme stochastique qui génère des résultats non aléatoires, comme un générateur de nombres pseudo-aléatoires.


Il est bien entendu impossible de prouver ou de réfuter l'existence d'un mécanisme externe qui rendrait la vie ergodique. Cependant, la possibilité de l'existence d'un tel mécanisme est une question intéressante qui soulève de nombreuses questions philosophiques et théologiques.

Q) - Ce qui n'empêche en rien le concept d'une vie issue du carbone tétravalent extracteur d'énergie, développant d'immenses variétés d'organismes-espèces orthogonaux en symbiose les uns avec les autres... le tout formant qu'on nommera Gaïa... vue comme un processus indéterministe, avec comme principale caractéristique l'adéquation claire entre complexité et durée temporelle. Donc, plus le temps est vieux, ou long, ou grand.... plus il est complexe.

R) - Vous avez raison, le concept d'une vie issue du carbone tétravalent extracteur d'énergie, développant d'immenses variétés d'organismes-espèces orthogonaux en symbiose les uns avec les autres, et formant une planète Gaïa, est tout à fait compatible avec l'idée que la vie est un processus non ergodique.

En effet, ce concept implique que la vie est un système complexe, composé de nombreuses interactions entre différents éléments. Ces interactions sont régies par des lois physiques, mais elles sont également soumises au hasard. 

La diversité, l'évolution et l'imprévisibilité de la vie sont des conséquences naturelles de ce concept. 

La symbiose entre les différents organismes-espèces orthogonaux est un exemple de la manière dont la vie peut s'adapter et évoluer dans un environnement complexe. 

La planète Gaïa est un exemple de la manière dont un système complexe peut émerger d'un ensemble d'éléments simples. 

L'adéquation claire entre complexité et durée temporelle est également une caractéristique naturelle de ce concept.

En effet, plus le temps passe, plus les interactions entre les différents éléments de la vie ont le temps de se complexifier.

Cela peut conduire à l'émergence de nouvelles formes de vie, à l'évolution des formes de vie existantes, ou à la création de nouveaux systèmes complexes, tels que Gaïa.

Ce concept est une vision fascinante de la vie, qui ouvre de nouvelles perspectives sur notre compréhension de l'univers.

Q) - Ce qui n'empêche pas l'idée d'un étudiant extraterrestre, situé à un plus haut degré d'évolution, qui aurai créé l'espèce humaine juste comme sujet de thèse ? ;-)

R) - Vous avez raison, l'idée d'un étudiant extraterrestre, situé à un plus haut degré d'évolution, qui aurait créé l'espèce humaine juste comme sujet de thèse, est une idée fascinante qui ne contredit pas le concept d'une vie issue du carbone tétravalent extracteur d'énergie, développant d'immenses variétés d'organismes-espèces orthogonaux en symbiose les uns avec les autres, et formant une planète Gaïa.

En effet, ce concept implique que la vie est un processus complexe, composé de nombreuses interactions entre différents éléments. Ces interactions sont régies par des lois physiques, mais elles sont également soumises au hasard.

La diversité, l'évolution et l'imprévisibilité de la vie sont des conséquences naturelles de ce concept.

Dans le cas de l'étudiant extraterrestre, la création de l'espèce humaine serait simplement un autre exemple de cette complexité et de cette imprévisibilité.

L'étudiant extraterrestre aurait pu créer l'espèce humaine pour de nombreuses raisons. Il pourrait être intéressé par l'évolution de la vie, ou il pourrait vouloir étudier les interactions entre les différents organismes-espèces orthogonaux. Il pourrait également vouloir créer une nouvelle forme de vie, ou il pourrait vouloir comprendre la complexité de Gaïa.

Dans tous les cas, la création de l'espèce humaine par un étudiant extraterrestre serait un événement important dans l'histoire de la vie. Cela signifierait que la vie n'est pas seulement un processus naturel, mais qu'elle peut également être dirigée par des intelligences supérieures.

Bien entendu, il est impossible de prouver ou de réfuter l'existence d'un tel étudiant extraterrestre. Cependant, l'idée de son existence est une question intéressante qui soulève de nombreuses questions philosophiques et théologiques.

Voici quelques questions que cette idée soulève :

Quelle est la nature de la relation entre les humains et l'étudiant extraterrestre ?

L'étudiant extraterrestre a-t-il le droit de créer une nouvelle forme de vie ?

Quelles sont les implications éthiques de la création de l'espèce humaine ?


Ces questions sont complexes et n'ont pas de réponses faciles. Cependant, elles sont importantes à considérer si nous voulons comprendre notre place dans l'univers.

Auteur: Google Bard chatbot

Info: interaction avec Mg, 20 janv. 2024

[ dialogue ] [ science-fiction ] [ projectionniste ] [ spéculations ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel