Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5083
Temps de recherche: 0.0649s

méta-moteur

Le comportement de cet animal est programmé mécaniquement.

Des interactions biomécaniques, plutôt que des neurones, contrôlent les mouvements de l'un des animaux les plus simples. Cette découverte offre un aperçu de la façon dont le comportement animal fonctionnait avant l'apparition des neurones.

L'animal extrêmement simple Trichoplax adhaerens se déplace et réagit à son environnement avec agilité et avec un but apparent, mais il n'a pas de neurones ou de muscles pour coordonner ses mouvements. De nouveaux travaux montrent que les interactions biomécaniques entre les cils de l'animal suffisent à en expliquer ses mouvements.

Le biophysicien Manu Prakash se souvient très bien du moment où, tard dans la nuit, dans le laboratoire d'un collègue, il y a une douzaine d'années, il a regardé dans un microscope et a rencontré sa nouvelle obsession. L'animal sous les lentilles n'était pas très beau à voir, ressemblant plus à une amibe qu'à autre chose : une tache multicellulaire aplatie, de 20 microns d'épaisseur et de quelques millimètres de diamètre, sans tête ni queue. Elle se déplaçait grâce à des milliers de cils qui recouvraient sa face inférieure pour former la "plaque velue collante" qui lui a inspiré son nom latin, Trichoplax adhaerens.

Cette étrange créature marine, classée dans la catégorie des placozoaires, dispose pratiquement d'une branche entière de l'arbre de l'évolution de la vie pour elle-même, ainsi que du plus petit génome connu du règne animal. Mais ce qui a le plus intrigué Prakash, c'est la grâce, l'agilité et l'efficacité bien orchestrées avec lesquelles les milliers ou les millions de cellules du Trichoplax se déplacent.

Après tout, une telle coordination nécessite habituellement des neurones et des muscles - et le Trichoplax n'en a pas.

Prakash s'est ensuite associé à Matthew Storm Bull, alors étudiant diplômé de l'université de Stanford, pour faire de cet étrange organisme la vedette d'un projet ambitieux visant à comprendre comment les systèmes neuromusculaires ont pu évoluer et comment les premières créatures multicellulaires ont réussi à se déplacer, à trouver de la nourriture et à se reproduire avant l'existence des neurones.

"J'appelle souvent ce projet, en plaisantant, la neuroscience sans les neurones", a déclaré M. Prakash.

Dans un trio de prétirés totalisant plus de 100 pages - publiés simultanément sur le serveur arxiv.org l'année dernière - lui et Bull ont montré que le comportement de Trichoplax pouvait être décrit entièrement dans le langage de la physique et des systèmes dynamiques. Les interactions mécaniques qui commencent au niveau d'un seul cilium, puis se multiplient sur des millions de cellules et s'étendent à des niveaux supérieurs de structure, expliquent entièrement la locomotion coordonnée de l'animal tout entier. L'organisme ne "choisit" pas ce qu'il doit faire. Au contraire, la horde de cils individuels se déplace simplement - et l'animal dans son ensemble se comporte comme s'il était dirigé par un système nerveux. Les chercheurs ont même montré que la dynamique des cils présente des propriétés qui sont généralement considérées comme des signes distinctifs des neurones.

Ces travaux démontrent non seulement comment de simples interactions mécaniques peuvent générer une incroyable complexité, mais ils racontent également une histoire fascinante sur ce qui aurait pu précéder l'évolution du système nerveux.

"C'est un tour de force de la biophysique", a déclaré Orit Peleg, de l'université du Colorado à Boulder, qui n'a pas participé aux études. Ces découvertes ont déjà commencé à inspirer la conception de machines mécaniques et de robots, et peut-être même une nouvelle façon de penser au rôle des systèmes nerveux dans le comportement animal. 

La frontière entre le simple et le complexe

Les cerveaux sont surestimés. "Un cerveau est quelque chose qui ne fonctionne que dans le contexte très spécifique de son corps", a déclaré Bull. Dans les domaines connus sous le nom de "robotique douce" et de "matière active", la recherche a démontré que la bonne dynamique mécanique peut suffire à accomplir des tâches complexes sans contrôle centralisé. En fait, les cellules seules sont capables de comportements remarquables, et elles peuvent s'assembler en systèmes collectifs (comme les moisissures ou les xénobots) qui peuvent accomplir encore plus, le tout sans l'aide de neurones ou de muscles.

Mais est-ce possible à l'échelle d'un animal multicellulaire entier ?

Le Trichoplax fut un cas d'étude parfait : assez simple pour être étudié dans les moindres détails, mais aussi assez compliqué pour offrir quelque chose de nouveau aux chercheurs. En l'observant, "vous regardez simplement une danse", a déclaré Prakash. "Elle est d'une incroyable complexité". Elle tourne et se déplace sur des surfaces. Elle s'accroche à des plaques d'algues pour les piéger et les consommer comme nourriture. Elle se reproduit asexuellement en se divisant en deux.

"Un organisme comme celui-ci se situe dans un régime intermédiaire entre quelque chose de réellement complexe, comme un vertébré, et quelque chose qui commence à devenir complexe, comme les eucaryotes unicellulaires", explique Kirsty Wan, chercheur à l'université d'Exeter en Angleterre, qui étudie la locomotion ciliaire.

Ce terrain intermédiaire entre les cellules uniques et les animaux dotés de muscles et de systèmes nerveux semblait être l'endroit idéal pour que Prakash et Bull posent leurs questions. "Pour moi, un organisme est une idée", a déclaré Prakash, un terrain de jeu pour tester des hypothèses et un berceau de connaissances potentielles.

Prakash a d'abord construit de nouveaux microscopes permettant d'examiner le Trichoplax par en dessous et sur le côté, et a trouvé comment suivre le mouvement à grande vitesse de ses cils. (Ce n'était pas un terrain entièrement nouveau pour lui, puisqu'il était déjà célèbre pour ses travaux sur le Foldscope, un microscope facile à assembler et dont la fabrication coûte moins d'un dollar). Il pouvait alors voir et suivre des millions de cils individuels, chacun apparaissant comme une minuscule étincelle dans le champ de vision du microscope pendant une fraction de seconde à la fois. "Vous ne voyez que les empreintes lorsqu'elles se posent sur la surface", a déclaré Prakash.

Lui-même - et plus tard Bull, qui a rejoint son laboratoire il y a six ans - ont passé des heures à observer l'orientation de ces petites empreintes. Pour que ces motifs complexes soient possibles, les scientifiques savaient que les cils devaient être engagés dans une sorte de communication à longue distance. Mais ils ne savaient pas comment.

Ils ont donc commencé à rassembler les pièces du puzzle, jusqu'à ce que, l'année dernière, ils décident enfin qu'ils avaient leur histoire.

Une marche en pilote automatique

Au départ, Prakash et Bull s'attendaient à ce que les cils glissent sur des surfaces, avec une fine couche de liquide séparant l'animal du substrat. Après tout, les cils sont généralement vus dans le contexte des fluides : ils propulsent des bactéries ou d'autres organismes dans l'eau, ou déplacent le mucus ou les fluides cérébrospinaux dans un corps. Mais lorsque les chercheurs ont regardé dans leurs microscopes, ils ont constaté que les cils semblaient marcher, et non nager.

Bien que l'on sache que certains organismes unicellulaires utilisent les cils pour ramper, ce type de coordination n'avait jamais été observé à cette échelle. "Plutôt qu'utiliser les cils pour propulser un fluide, il s'agit de mécanique, de friction, d'adhésion et de toutes sortes de mécanismes solides très intéressants", a-t-elle déclaré.

Prakash, Bull et Laurel Kroo, une étudiante diplômée en génie mécanique de Stanford, ont donc entrepris de caractériser la démarche des cils. Ils ont suivi la trajectoire de l'extrémité de chaque cilium au fil du temps, l'observant tracer des cercles et pousser contre des surfaces. Ils ont défini trois types d'interactions : le glissement, au cours duquel les cils effleurent à peine la surface ; la marche, lorsque les cils adhèrent brièvement à la surface avant de se détacher ; et le calage, lorsque les cils restent coincés contre la surface.

Dans leurs modèles, l'activité de marche émergeait naturellement de l'interaction entre les forces motrices internes des cils et l'énergie de leur adhésion à la surface. Le bon équilibre entre ces deux paramètres (calculé à partir de mesures expérimentales de l'orientation, de la hauteur et de la fréquence des battements des cils) permettant une locomotion régulière, chaque cilium se collant puis se soulevant, comme une jambe. Un mauvais équilibre produisant les phases de glissement ou de décrochage.

Nous pensons généralement, lorsque quelque chose se passe comme ça, qu'il y a un signal interne semblable à une horloge qui dit : "OK, allez-y, arrêtez-vous, allez-y, arrêtez-vous", a déclaré Simon Sponberg, biophysicien à l'Institut de technologie de Géorgie. "Ce n'est pas ce qui se passe ici. Les cils ne sont pas rythmés. Il n'y a pas une chose centrale qui dit 'Go, go, go' ou autre. Ce sont les interactions mécaniques qui mettent en place quelque chose qui va, qui va, qui va."

De plus, la marche pourrait être modélisée comme un système excitable, c'est-à-dire un système dans lequel, sous certaines conditions, les signaux se propagent et s'amplifient au lieu de s'atténuer progressivement et de s'arrêter. Un neurone est un exemple classique de système excitable : De petites perturbations de tension peuvent provoquer une décharge soudaine et, au-delà d'un certain seuil, le nouvel état stimulé se propage au reste du système. Le même phénomène semble se produire ici avec les cils. Dans les expériences et les simulations, de petites perturbations de hauteur, plutôt que de tension, entraînent des changements relativement importants dans l'activité des cils voisins : Ils peuvent soudainement changer d'orientation, et même passer d'un état de stase à un état de marche. "C'est incroyablement non linéaire", a déclaré Prakash.

En fait, les modèles de cils de Prakash, Bull et Kroo se sont avérés très bien adaptés aux modèles établis pour les potentiels d'action au sein des neurones. "Ce type de phénomène unique se prête à une analogie très intéressante avec ce que l'on observe dans la dynamique non linéaire des neurones individuels", a déclaré Bull. Sponberg est d'accord. "C'est en fait très similaire. Il y a une accumulation de l'énergie, et puis pop, et puis pop, et puis pop".

Les cils s'assemblent comme des oiseaux

Forts de cette description mathématique, Prakash et Bull ont examiné comment chaque cilium pousse et tire sur ses voisins lors de son interaction avec la surface, et comment toute ces activités indépendantes peuvent se transformer en quelque chose de synchronisé et cohérent.

Ils ont mesuré comment la démarche mécanique de chaque cilium entraînait de petites fluctuations locales de la hauteur du tissu. Ils ont ensuite écrit des équations pour expliquer comment ces fluctuations pouvaient influencer le comportement des cellules voisines, alors même que les cils de ces cellules effectuaient leurs propres mouvements, comme un réseau de ressorts reliant de minuscules moteurs oscillants.

Lorsque les chercheurs ont modélisé "cette danse entre élasticité et activité", ils ont constaté que les interactions mécaniques - de cils poussant contre un substrat et de cellules se tirant les unes les autres - transmettaient rapidement des informations à travers l'organisme. La stimulation d'une région entraînait des vagues d'orientation synchronisée des cils qui se déplaçaient dans le tissu. "Cette élasticité et cette tension dans la physique d'un cilium qui marche, maintenant multipliées par des millions d'entre eux dans une feuille, donnent en fait lieu à un comportement mobile cohérent", a déclaré Prakash.

Et ces modèles d'orientation synchronisés peuvent être complexes : parfois, l'activité du système produit des tourbillons, les cils étant orientés autour d'un seul point. Dans d'autres cas, les cils se réorientent en quelques fractions de seconde, pointant d'abord dans une direction puis dans une autre - se regroupant comme le ferait un groupe d'étourneaux ou un banc de poissons, et donnant lieu à une agilité qui permet à l'animal de changer de direction en un clin d'œil.

"Nous avons été très surpris lorsque nous avons vu pour la première fois ces cils se réorienter en une seconde", a déclaré M. Bull.

Ce flocage agile est particulièrement intriguant. Le flocage se produit généralement dans des systèmes qui se comportent comme des fluides : les oiseaux et les poissons individuels, par exemple, peuvent échanger librement leurs positions avec leurs compagnons. Mais cela ne peut pas se produire chez Trichoplax, car ses cils sont des composants de cellules qui ont des positions fixes. Les cils se déplacent comme "un troupeau solide", explique Ricard Alert, physicien à l'Institut Max Planck pour la physique des systèmes complexes.

Prakash et Bull ont également constaté dans leurs simulations que la transmission d'informations était sélective : Après certains stimuli, l'énergie injectée dans le système par les cils se dissipe tout simplement, au lieu de se propager et de modifier le comportement de l'organisme. Nous utilisons notre cerveau pour faire cela tout le temps, pour observer avec nos yeux et reconnaître une situation et dire : "Je dois soit ignorer ça, soit y répondre", a déclaré M. Sponberg.

Finalement, Prakash et Bull ont découvert qu'ils pouvaient écrire un ensemble de règles mécaniques indiquant quand le Trichoplax peut tourner sur place ou se déplacer en cercles asymétriques, quand il peut suivre une trajectoire rectiligne ou dévier soudainement vers la gauche, et quand il peut même utiliser sa propre mécanique pour se déchirer en deux organismes distincts.

"Les trajectoires des animaux eux-mêmes sont littéralement codées" via ces simples propriétés mécaniques, a déclaré Prakash.

Il suppose que l'animal pourrait tirer parti de ces dynamiques de rotation et de reptation dans le cadre d'une stratégie de "course et culbute" pour trouver de la nourriture ou d'autres ressources dans son environnement. Lorsque les cils s'alignent, l'organisme peut "courir", en continuant dans la direction qui vient de lui apporter quelque chose de bénéfique ; lorsque cette ressource semble s'épuiser, Trichoplax peut utiliser son état de vortex ciliaire pour se retourner et tracer une nouvelle route.

Si d'autres études démontrent que c'est le cas, "ce sera très excitant", a déclaré Jordi Garcia-Ojalvo, professeur de biologie systémique à l'université Pompeu Fabra de Barcelone. Ce mécanisme permettrait de faire le lien entre beaucoups d'échelles, non seulement entre la structure moléculaire, le tissu et l'organisme, mais aussi pour ce qui concerne écologie et environnement.

En fait, pour de nombreux chercheurs, c'est en grande partie ce qui rend ce travail unique et fascinant. Habituellement, les approches des systèmes biologiques basées sur la physique décrivent l'activité à une ou deux échelles de complexité, mais pas au niveau du comportement d'un animal entier. "C'est une réussite...  vraiment rare", a déclaré M. Alert.

Plus gratifiant encore, à chacune de ces échelles, la mécanique exploite des principes qui font écho à la dynamique des neurones. "Ce modèle est purement mécanique. Néanmoins, le système dans son ensemble possède un grand nombre des propriétés que nous associons aux systèmes neuro-mécaniques : il est construit sur une base d'excitabilité, il trouve constamment un équilibre délicat entre sensibilité et stabilité et il est capable de comportements collectifs complexes." a déclaré Sponberg.

"Jusqu'où ces systèmes mécaniques peuvent-ils nous mener ?... Très loin." a-t-il ajouté.

Cela a des implications sur la façon dont les neuroscientifiques pensent au lien entre l'activité neuronale et le comportement de manière plus générale. "Les organismes sont de véritables objets dans l'espace", a déclaré Ricard Solé, biophysicien à l'ICREA, l'institution catalane pour la recherche et les études avancées, en Espagne. Si la mécanique seule peut expliquer entièrement certains comportements simples, les neuroscientifiques voudront peut-être examiner de plus près comment le système nerveux tire parti de la biophysique d'un animal pour obtenir des comportements complexes dans d'autres situations.

"Ce que fait le système nerveux n'est peut-être pas ce que nous pensions qu'il faisait", a déclaré M. Sponberg.

Un pas vers la multicellularité

"L'étude de Trichoplax peut nous donner un aperçu de ce qu'il a fallu faire pour développer des mécanismes de contrôle plus complexes comme les muscles et les systèmes nerveux", a déclaré Wan. "Avant d'arriver à ça, quelle est le meilleur truc à suivre ? Ca pourrait bien être ça".

Alert est d'accord. "C'est une façon si simple d'avoir des comportements organisationnels tels que l'agilité que c'est peut-être ainsi qu'ils ont émergé au début et  au cours de l'évolution, avant que les systèmes neuronaux ne se développent. Peut-être que ce que nous voyons n'est qu'un fossile vivant de ce qui était la norme à l'époque".

Solé considère que Trichoplax occupe une "twilight zone... au centre des grandes transitions vers la multicellularité complexe". L'animal semble commencer à mettre en place "les conditions préalables pour atteindre la vraie complexité, celle où les neurones semblent être nécessaires."

Prakash, Bull et leurs collaborateurs cherchent maintenant à savoir si Trichoplax pourrait être capable d'autres types de comportements ou même d'apprentissage. Que pourrait-il réaliser d'autre dans différents contextes environnementaux ? La prise en compte de sa biochimie en plus de sa mécanique ouvrirait-elle vers un autre niveau de comportement ?

Les étudiants du laboratoire de Prakash ont déjà commencé à construire des exemples fonctionnels de ces machines. Kroo, par exemple, a construit un dispositif de natation robotisé actionné par un matériau viscoélastique appelé mousse active : placée dans des fluides non newtoniens comme des suspensions d'amidon de maïs, elle peut se propulser vers l'avant.

"Jusqu'où voulez-vous aller ? a demandé Peleg. "Pouvez-vous construire un cerveau, juste à partir de ce genre de réseaux mécaniques ?"

Prakash considère que ce n'est que le premier chapitre de ce qui sera probablement une saga de plusieurs décennies. "Essayer de vraiment comprendre cet animal est pour moi un voyage de 30 ou 40 ans", a-t-il dit. "Nous avons terminé notre première décennie... C'est la fin d'une époque et le début d'une autre".

Auteur: Internet

Info: https://www.quantamagazine.org/before-brains-mechanics-may-have-ruled-animal-behavior. Jordana Cepelewicz, 16 mars 2022. Trad Mg

[ cerveau rétroactif ] [ échelles mélangées ] [ action-réaction ] [ plus petit dénominateur commun ] [ grégarisme ] [ essaims ] [ murmurations mathématiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

résonances organiques

Les avantages sociaux de la synchronisation de notre cerveau

Nos ondes cérébrales peuvent s'aligner lorsque nous travaillons et jouons en étroite collaboration. Le phénomène, connu sous le nom de synchronisation inter-cerveau, suggère que la collaboration est biologique.

(Photo : De plus en plus de recherches montrent comment l’activité neuronale peut se synchroniser entre plusieurs personnes, ce qui entraîne de meilleurs résultats sociaux et créatifs.)

Le célèbre duo de pianos polonais Marek et Wacek n'utilisait pas de partitions lors de ses concerts live. Et pourtant, sur scène, le duo semblait parfaitement synchronisé. Sur des pianos adjacents, ils reprenaient de manière ludique divers thèmes musicaux, mêlé musique classique et jazz et improvisé en temps réel. "Nous avons suivi le courant", a déclaré Marek Tomaszewski, qui a joué avec Wacek Kisielewski jusqu'à la mort de Wacek en 1986. "C'était un pur plaisir."

Les pianistes semblaient lire dans les pensées des autres en échangeant des regards. C’était, dit Marek, comme s’ils étaient sur la même longueur d’onde. Un nombre croissant de recherches suggèrent que cela aurait pu être littéralement vrai.

Des dizaines d'expériences récentes étudiant l'activité cérébrale de personnes qui se produisent et travaillent ensemble – pianistes en duo, joueurs de cartes, enseignants et étudiants, puzzleurs et autres – montrent que leurs ondes cérébrales peuvent s'aligner dans un phénomène connu sous le nom de synchronisation neuronale interpersonnelle, également connue sous le nom de synchronie inter-cerveau.

"De nombreuses recherches montrent désormais que les personnes qui interagissent ensemble présentent des activités neuronales coordonnées", a déclaré Giacomo Novembre, neuroscientifique cognitif à l'Institut italien de technologie de Rome, qui a publié l'été dernier un article clé sur ce sujet. Les études se sont multipliées au cours des dernières années – notamment la semaine dernière – au fur et à mesure que de nouveaux outils et des techniques améliorées ont affiné la science et la théorie.

Ils montrent que la synchronisation entre les cerveaux présente des avantages. Qui conduit à une meilleure résolution de problèmes, à un meilleur apprentissage et à une meilleure coopération, et même à des comportements qui aident les autres à leur dépens. De plus, des études récentes dans lesquelles les cerveaux ont été stimulés par un courant électrique suggèrent que la synchronisation elle-même pourrait entraîner l'amélioration des performances observée par les scientifiques.

" La cognition est quelque chose qui se produit non seulement dans le crâne, mais aussi en relation avec l'environnement et avec les autres ", a déclaré Guillaume Dumas, professeur de psychiatrie computationnelle à l'Université de Montréal. Comprendre quand et comment nos cerveaux se synchronisent pourrait nous aider à communiquer plus efficacement, à concevoir de meilleures salles de classe et à aider les équipes à coopérer.

Se synchroniser


Les humains, comme les autres animaux sociaux, ont tendance à synchroniser leurs comportements. Si vous marchez à côté de quelqu’un, vous commencerez probablement à marcher au pas. Si deux personnes s’assoient côte à côte dans des fauteuils à bascule, il y a de fortes chances qu’elles commencent à se balancer au même rythme.

Une telle synchronisation comportementale, selon les recherches, nous rend plus confiants, nous aide à créer des liens et stimule nos instincts sociaux. Dans une étude, danser de manière synchronisée permettait aux participants de se sentir émotionnellement proches les uns des autres – bien plus que pour les groupes qui se déplaçaient de manière asynchrone. Dans une autre étude, les participants qui scandaient des mots de manière rythmée étaient plus susceptibles de coopérer à un jeu d'investissement. Même une simple marche à l'unisson avec une personne issue d'une minorité ethnique peut réduire les préjugés.

" La coordination est une caractéristique de l’interaction sociale. C'est vraiment crucial " a déclaré Novembre. "Lorsque la coordination est altérée, l'interaction sociale est profondément altérée."

Lorsque nos mouvements se coordonnent, une myriade de synchronisations invisibles à l’œil nu se produisent également à l’intérieur de notre corps. Quand les gens tambourinent ensemble, leurs cœurs battent ensemble. Les fréquences cardiaques des thérapeutes et de leurs patients peuvent se synchroniser pendant les séances (surtout si la relation thérapeutique fonctionne bien), tout comme celles des couples mariés. D’autres processus physiologiques, tels que notre rythme respiratoire et nos niveaux de conductance cutanée, peuvent également correspondre à ceux d’autres personnes.

(Photo : Ce n’est qu’au cours des 20 dernières années qu’est apparue une technologie permettant aux neuroscientifiques d’étudier la synchronisation inter-cerveau. L'hyperscanning utilise la spectroscopie fonctionnelle proche infrarouge, portée sur un appareil semblable à un bonnet de bain, pour surveiller l'activité neuronale de plusieurs individus s'engageant socialement.)

L’activité de notre cerveau peut-elle se synchroniser ? En 1965, la revue Science a publié les résultats d’une expérience suggérant que c’était possible. Des scientifiques de l'Université Thomas Jefferson de Philadelphie ont testé des paires de jumeaux identiques en insérant des électrodes sous leur cuir chevelu pour mesurer leurs ondes cérébrales – une technique appelée électroencéphalographie. Les chercheurs ont rapporté que lorsque les jumeaux restaient dans des pièces séparées, si l’un d’eux fermait les yeux, les ondes cérébrales des deux reflétaient le même mouvement. Les pointes sur l'électroencéphalographe de l'un des jumeaux reflétaient celles de l'autre. L’étude était cependant erronée sur le plan méthodologique. Les chercheurs avaient testé plusieurs paires de jumeaux mais n'avaient publié les résultats que pour la paire dans laquelle ils avaient observé une synchronie. Voilà qui n’a pas aidé ce domaine universitaire en plein essor. Pendant des décennies, la recherche sur la synchronisation intercérébrale fut donc reléguée dans la catégorie des " étranges bizarreries paranormales " et n’a pas été prise au sérieux.

La réputation du domaine a commencé à changer au début des années 2000 avec la popularisation de l' hyperscanning, une technique qui permet aux scientifiques de scanner simultanément le cerveau de plusieurs personnes en interaction. Au début, cela impliquait de demander à des paires de volontaires de s'allonger dans des appareils d'IRMf séparés, ce qui limitait considérablement les types d'études que les scientifiques pouvaient réaliser. Les chercheurs ont finalement pu utiliser la spectroscopie fonctionnelle proche infrarouge (fNIRS), qui mesure l'activité des neurones dans les couches externes du cortex. Le grand avantage de cette technologie est sa facilité d'utilisation : les volontaires peuvent jouer de la batterie ou étudier dans une salle de classe tout en portant des bonnets fNIRS, qui ressemblent à des bonnets de bain avec une multitude de câbles qui dépassent.

Lorsque plusieurs personnes  interagissent tout en portant des casquettes fNIRS, les scientifiques ont commencé à découvrir une activité interneurale synchronisée dans des régions du cerveau, qui variaient selon la tâche et la configuration de l'étude. Ils ont également observé des ondes cérébrales, qui représentent des schémas électriques dans le déclenchement neuronal, se synchronisant sur plusieurs fréquences. Sur une lecture électroencéphalographique de deux cerveaux synchronisés, les lignes représentant l'activité neuronale de chaque personne fluctuent ensemble : chaque fois que l'une monte ou descend, l'autre fait de même, bien que parfois avec un décalage dans le temps. Parfois, des ondes cérébrales apparaissent dans des images en miroir – lorsque celles d’une personne montent, celles de l’autre descendent en même temps et avec une ampleur similaire – ce que certains chercheurs considèrent également comme une forme de synchronie.

Avec de nouveaux outils, il est devenu de plus en plus clair que la synchronisation inter-cerveau n’était ni un charabia métaphysique ni le produit de recherches erronées. "Le signal est définitivement là", a déclaré Antonia Hamilton , neuroscientifique sociale à l'University College de Londres. Ce qui s'est avéré plus difficile à comprendre, c'est comment deux cerveaux indépendants, dans deux corps distincts, pouvaient montrer une activité similaire dans l'espace. Maintenant, dit Hamilton, la grande question est : " Qu’est-ce que cela nous raconte ? "

La recette de la synchronisation

Novembre est fasciné depuis longtemps par la manière dont les humains se coordonnent pour atteindre des objectifs communs. Comment les musiciens – les pianistes en duo, par exemple – collaborent-ils si bien ? Pourtant, c'est en pensant aux animaux, comme les lucioles synchronisant leurs flashs, qu'il s'est mis sur la voie de l'étude des ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau.

Étant donné que la synchronie est " si répandue parmi tant d’espèces différentes ", se souvient-il, " je me suis dit : OK, alors il pourrait y avoir un moyen très simple de l’expliquer. "

Novembre et ses collègues ont mis en place une expérience, publiée l'été dernier , dans laquelle des paires de volontaires ne faisaient que s'asseoir l'un en face de l'autre tandis qu'un équipement photographique suivait les mouvements de leurs yeux, de leur visage et de leur corps. Parfois, les volontaires pouvaient se voir ; à d'autres moments, ils étaient séparés par une cloison. Les chercheurs ont découvert que dès que les volontaires se regardaient dans les yeux, leurs ondes cérébrales se synchronisaient instantanément. Le sourire s’est avéré encore plus puissant pour aligner les ondes cérébrales.

" Il y a quelque chose de spontané dans la synchronisation", a déclaré Novembre.

Le mouvement est également lié à l’activité synchronisée des ondes cérébrales. Dans l'étude de Novembre, lorsque les gens bougeaient leur corps de manière synchronisée – si, par exemple, l'un levait la main et que l'autre faisait de même – leur activité neuronale correspondait, avec un léger décalage. Cependant, la synchronisation intercérébrale va au-delà de la simple reproduction des mouvements physiques. Dans une étude publiée l'automne dernier sur des pianistes jouant en duo, une rupture de la synchronisation comportementale n'a pas provoqué la désynchronisation des deux cerveaux.

Un autre ingrédient important de la synchronisation neuronale "face à face" semble être la prédiction mutuelle : anticiper les réponses et les comportements d'une autre personne. Chaque personne " bouge ses mains, son visage ou son corps, ou parle ", a expliqué Hamilton, " et réagit également aux actions de l'autre personne ". Par exemple, lorsque les gens jouaient au jeu de cartes italien Tressette, l'activité neuronale des partenaires se synchronisait, mais le cerveau de leurs adversaires ne s'alignait pas avec eux.

Le partage d’objectifs et l’attention commune semblent souvent cruciaux pour la synchronisation inter-cerveau. Dans une expérience menée en Chine, des groupes de trois personnes ont dû coopérer pour résoudre un problème. Se présenta un problème : l'un des membres de l'équipe était un chercheur qui faisait seulement semblant de s'engager dans la tâche, hochant la tête et commentant lorsque c'était approprié, mais ne se souciant pas vraiment du résultat. Son cerveau ne se synchronisait pas avec celui des véritables membres de l'équipe.

Cependant, certains critiques affirment que l’apparition d’une activité cérébrale synchronisée n’est pas la preuve d’une quelconque connexion, mais peut plutôt s’expliquer par la réaction des personnes à un environnement partagé. " Imaginez deux personnes écoutant la même station de radio dans deux pièces différentes ", a écrit Clay Holroyd, neuroscientifique cognitif à l'Université de Gand en Belgique qui n'étudie pas la synchronisation intercérébrale, dans un article de 2022 . "La synchronisation inter-cerveau pourrait augmenter pendant les chansons qu'ils apprécient  ensemble par rapport aux chansons qu'ils trouvent tous deux ennuyeuses, mais cela ne serait pas une conséquence d'un couplage direct de cerveau à cerveau."

Pour tester cette critique, des scientifiques de l'Université de Pittsburgh et de l'Université Temple ont conçu une expérience dans laquelle les participants travaillaient différemment sur une tâche ciblée : terminer un puzzle . Les volontaires ont soit assemblé un puzzle en collaboration, soit travaillé sur des puzzles identiques séparément, côte à côte. Même s’il existait une certaine synchronisation interneurale entre les chercheurs travaillant de manière indépendante, elle était bien plus importante chez ceux qui collaboraient.

Pour Novembre, ces découvertes et d’autres similaires suggèrent que la synchronisation intercérébrale est plus qu’un artefact environnemental. "Tant que vous mesurerez le cerveau lors d'une interaction sociale, vous devrez toujours faire face à ce problème", a-t-il déclaré. "Les cerveaux en interaction sociale seront exposés à des informations similaires."

(Photo : La Mutual Wave Machine, qui a fait le tour des villes du monde entier de 2013 à 2019, permet aux passants d'explorer la synchronisation intercérébrale par paires tout en générant des données pour la recherche en neurosciences.)

À moins qu’ils ne soient à des endroits différents, bien sûr. Pendant la pandémie, les chercheurs se sont intéressés à comprendre comment la synchronisation intercérébrale pourrait changer lorsque les gens parlent face à face par vidéo. Dans une étude, publiée fin 2022 , Dumas et ses collègues ont mesuré l'activité cérébrale des mères et de leurs préadolescents lorsqu'ils communiquaient par vidéo en ligne. Les cerveaux des couples étaient à peine synchronisés, bien moins que lorsqu'ils parlaient en vrai. Une telle mauvaise synchronisation inter-cerveau en ligne pourrait aider à expliquer pourquoi les réunions Zoom ont tendance à être si fatigantes, selon les auteurs de l'étude.

"Il manque beaucoup de choses dans un appel Zoom par rapport à une interaction en face à face", a déclaré Hamilton, qui n'a pas participé à la recherche. " Votre contact visuel est un peu différent parce que le positionnement de la caméra est incorrect. Plus important encore, votre attention commune est différente."

Identifier les ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau – qu'il s'agisse d'un contact visuel, d'un sourire ou du partage d'un objectif – pourrait nous aider à mieux profiter des avantages de la synchronisation avec les autres. Lorsque nous sommes sur la même longueur d’onde, les choses deviennent tout simplement plus faciles.

Avantages émergents

La neuroscientifique cognitive Suzanne Dikker aime exprimer son côté créatif en utilisant l'art pour étudier le fonctionnement du cerveau humain. Pour capturer la notion insaisissable d’être sur la même longueur d’onde, elle et ses collègues ont créé la Mutual Wave Machine : mi-installation artistique, mi-expérience neurologique. Entre 2013 et 2019, les passants de diverses villes du monde – Madrid, New York, Toronto, Athènes, Moscou et autres – ont pu faire équipe avec une autre personne pour explorer la synchronisation interneurale. Ils sont assis dans deux structures en forme de coquille se faisant face tout en portant un casque électroencéphalographe pour mesurer leur activité cérébrale. Pendant qu’ils interagissent pendant 10 minutes, les coquilles s’éclairent avec des projections visuelles qui servaient de neurofeedback : plus les projections sont lumineuses, plus leurs ondes cérébrales sont couplées. Cependant, certaines paires n'étaient pas informées que la luminosité des projections reflétait leur niveau de synchronisation, tandis que d'autres voyaient de fausses projections.

Lorsque Dikker et ses collègues ont analysé les résultats, publiés en 2021, ils ont découvert que les couples qui savaient qu'ils voyaient du neurofeedback se synchronisaient davantage avec le temps – un effet motivé par leur motivation à rester concentrés sur leur partenaire, ont expliqué les chercheurs. Plus important encore, leur synchronisation accrue a augmenté le sentiment de connexion sociale entre les deux. Il est apparu qu’être sur la même longueur d’onde cérébrale pourrait aider à établir des relations.

Dikker a également étudié cette idée dans un cadre moins artistique : la salle de classe. Dans une salle de classe de fortune dans un laboratoire, un professeur de sciences du secondaire encadrait des groupes de quatre élèves maximum pendant que Dikker et ses collègues enregistraient leur activité cérébrale. Dans une étude publiée sur le serveur de prépublication biorxiv.org en 2019, les chercheurs ont rapporté que plus les cerveaux des étudiants et de l'enseignant étaient synchronisés, plus les étudiants retenaient le matériel lorsqu'ils étaient testés une semaine plus tard. Une analyse de 2022 portant sur 16 études a confirmé que la synchronisation intercérébrale est effectivement liée à un meilleur apprentissage.

" La personne qui prête le plus d'attention ou qui s'accroche le mieux au signal de l'orateur sera également la plus synchronisée avec d'autres personnes qui accordent également la plus grande attention à ce que dit l'orateur ", a déclaré Dikker.

Ce n'est pas seulement l'apprentissage qui semble stimulé lorsque nos cerveaux sont synchronisés, mais également les performances et la coopération de l'équipe. Dans une autre étude réalisée par Dikker et ses collègues, des groupes de quatre personnes ont réfléchi à des utilisations créatives d'une brique ou classé des éléments essentiels pour survivre à un accident d'avion. Les résultats ont montré que plus leurs ondes cérébrales étaient synchronisées, mieux ils effectuaient ces tâches en groupe. Entre-temps, d'autres études ont montré que les équipes neuronales synchronisées non seulement communiquent mieux, mais surpassent également les autres dans les activités créatives telles que l'interprétation de la poésie .

Alors que de nombreuses études ont établi un lien entre la synchronisation intercérébrale et un meilleur apprentissage et de meilleures performances, la question reste de savoir si la synchronisation entraîne réellement de telles améliorations. Serait-ce plutôt une mesure d’engagement ? "Les enfants qui prêtent attention à l'enseignant feront preuve d'une plus grande synchronisation avec cet enseignant parce qu'ils sont plus engagés", a déclaré Holroyd. "Mais cela ne signifie pas que les processus synchrones contribuent réellement d'une manière ou d'une autre à l'interaction et à l'apprentissage."

Pourtant, les expériences sur les animaux suggèrent que la synchronisation neuronale peut effectivement conduire à des changements de comportement. Lorsque l’activité neuronale des souris était mesurée en leur faisant porter de minuscules capteurs en forme de chapeau haut de forme, par exemple, la synchronisation inter-cerveau prédisait si et comment les animaux interagiraient dans le futur. "C'est une preuve assez solide qu'il existe une relation causale entre les deux", a déclaré Novembre.

Chez l’homme, les preuves les plus solides proviennent d’expériences utilisant la stimulation électrique du cerveau pour générer une synchronisation interneurale. Une fois les électrodes placées sur le cuir chevelu des personnes, des courants électriques peuvent passer entre les électrodes pour synchroniser l’activité neuronale du cerveau des personnes. En 2017, Novembre et son équipe ont réalisé la première de ces expériences. Les résultats suggèrent que la synchronisation des ondes cérébrales dans la bande bêta, liée aux fonctions motrices, améliore la capacité des participants à synchroniser les mouvements de leur corps – dans ce cas, en frappant un rythme avec leurs doigts.

Plusieurs études ont récemment reproduit les conclusions de Novembre. Fin 2023, des chercheurs ont découvert qu'une fois les ondes cérébrales synchronisées par stimulation électrique, leur capacité à coopérer dans un jeu informatique simple s'améliorait considérablement. Et l'été dernier d'autres scientifiques ont montré qu'une fois que deux cerveaux sont synchronisés, les gens parviennent mieux à transférer des informations et à se comprendre.

La science est nouvelle, donc le jury ne sait toujours pas s'il existe un véritable lien de causalité entre la synchronie et le comportement humain coopératif. Malgré cela, la science de la synchronisation neuronale nous montre déjà à quel point nous bénéficions lorsque nous faisons les choses en synchronisation avec les autres. Sur le plan biologique, nous sommes programmés pour nous connecter.


Auteur: Internet

Info: https://www.quantamagazine.org/ - Marta Zaraska, 28 mars 2024

[ intelligence collective ] [ manipulation du public ] [ collectives réverbérations ] [ implication ] [ rapports humains ] [ transe ] [ attention partagée ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel

dichotomie

Un nouvel opus magnum postule l'existence d'un lien mathématique caché, semblable à la connexion entre l'électricité et le magnétisme.

En 2018, alors qu'il s'apprêtait à recevoir la médaille Fields, la plus haute distinction en mathématiques, Akshay Venkatesh avait un morceau de papier dans sa poche. Il y avait inscrit un tableau d'expressions mathématiques qui, depuis des siècles, jouent un rôle clé dans la théorie des nombres.

Bien que ces expressions aient occupé une place prépondérante dans les recherches de Venkatesh au cours de la dernière décennie, il les gardait sur lui non pas comme un souvenir de ce qu'il avait accompli, mais comme un rappel de quelque chose qu'il ne comprenait toujours pas.

Les colonnes du tableau étaient remplies d'expressions mathématiques à l'allure énigmatique : À l'extrême gauche se trouvaient des objets appelés périodes, et à droite, des objets appelés fonctions L, qui pourraient être la clé pour répondre à certaines des questions les plus importantes des mathématiques modernes. Le tableau suggérait une sorte de relation entre les deux. Dans un livre publié en 2012 avec Yiannis Sakellaridis, de l'université Johns Hopkins, Venkatesh avait trouvé un sens à cette relation : Si on leur donne une période, ils peuvent déterminer s'il existe une fonction L associée.

Mais ils ne pouvaient pas encore comprendre la relation inverse. Il était impossible de prédire si une fonction L donnée avait une période correspondante. Lorsqu'ils ont examiné les fonctions L, ils ont surtout constaté un certain désordre.

C'est pourquoi Venkatesh a gardé le papier dans sa poche. Il espérait que s'il fixait la liste suffisamment longtemps, les traits communs de cette collection apparemment aléatoire de fonctions L lui apparaîtraient clairement. Au bout d'un an, ce n'était pas le cas.

"Je n'arrivais pas à comprendre le principe qui sous-tendait ce tableau", a-t-il déclaré.

2018 fut une année importante pour Venkatesh à plus d'un titre. En plus de recevoir la médaille Fields, il a également quitté l'université de Stanford, où il se trouvait depuis une dizaine d'années, pour rejoindre l'Institute for Advanced Study à Princeton, dans le New Jersey.

Sakellaridis et lui ont également commencé à discuter avec David Ben-Zvi, un mathématicien de l'université du Texas, à Austin, qui passait le semestre à l'institut. Ben-Zvi avait construit sa carrière dans un domaine parallèle des mathématiques, en étudiant le même type de questions sur les nombres que Sakellaridis et Venkatesh, mais d'un point de vue géométrique. Lorsqu'il a entendu Venkatesh parler de cette table mystérieuse qu'il emportait partout avec lui, Ben-Zvi a presque immédiatement commencé à voir une nouvelle façon de faire communiquer les périodes et les fonctions L entre elles.

Ce moment de reconnaissance a été à l'origine d'une collaboration de plusieurs années qui s'est concrétisée en juillet dernier, lorsque Ben-Zvi, Sakellaridis et Venkatesh ont publié un manuscrit de 451 pages. L'article crée une traduction dans les deux sens entre les périodes et les fonctions L en refondant les périodes et les fonctions L en termes d'une paire d'espaces géométriques utilisés pour étudier des questions fondamentales en physique.

Ce faisant, il réalise un rêve de longue date dans le cadre d'une vaste initiative de recherche en mathématiques appelée "programme Langlands". Les mathématiciens qui travaillent sur des questions dans le cadre de ce programme cherchent à jeter des ponts entre des domaines disparates pour montrer comment des formes avancées de calcul (d'où proviennent les périodes) peuvent être utilisées pour répondre à des questions ouvertes fondamentales en théorie des nombres (d'où proviennent les fonctions L), ou comment la géométrie peut être utilisée pour répondre à des questions fondamentales en arithmétique.

Ils espèrent qu'une fois ces ponts établis, les techniques pourront être portées d'un domaine mathématique à un autre afin de répondre à des questions importantes qui semblent insolubles dans leur propre domaine.

Le nouvel article est l'un des premiers à relier les aspects géométriques et arithmétiques du programme, qui, pendant des décennies, ont progressé de manière largement isolée. En créant ce lien et en élargissant effectivement le champ d'application du programme Langlands tel qu'il a été conçu à l'origine, le nouvel article fournit un cadre conceptuel unique pour une multitude de connexions mathématiques.

"Il unifie un grand nombre de phénomènes disparates, ce qui réjouit toujours les mathématiciens", a déclaré Minhyong Kim, directeur du Centre international des sciences mathématiques d'Édimbourg, en Écosse.

Connecter eulement  

Le programme Langlands a été lancé par Robert Langlands, aujourd'hui professeur émérite à l'Institute for Advanced Study. Il a débuté en 1967 par une lettre manuscrite de 17 pages adressée par Langlands, alors jeune professeur à l'université de Princeton, à Andre Weil, l'un des mathématiciens les plus connus au monde. Langlands proposait d'associer des objets importants du calcul, appelés formes automorphes, à des objets de l'algèbre, appelés groupes de Galois. Les formes automorphes sont une généralisation des fonctions périodiques telles que le sinus en trigonométrie, dont les sorties se répètent à l'infini lorsque les entrées augmentent. Les groupes de Galois sont des objets mathématiques qui décrivent comment des entités appelées champs (comme les nombres réels ou rationnels) changent lorsqu'on leur ajoute de nouveaux éléments.

Les paires comme celle entre les formes automorphes et les groupes de Galois sont appelées dualités. Elles suggèrent que différentes classes d'objets se reflètent l'une l'autre, ce qui permet aux mathématiciens d'étudier l'une en fonction de l'autre.

Des générations de mathématiciens se sont efforcées de prouver l'existence de la dualité supposée de Langlands. Bien qu'ils n'aient réussi à l'établir que pour des cas limités, même ces cas limités ont souvent donné des résultats spectaculaires. Par exemple, en 1994, lorsque Andrew Wiles a démontré que la dualité proposée par Langlands était valable pour une classe particulière d'exemples, il a prouvé le dernier théorème de Fermat, l'un des résultats les plus célèbres de l'histoire des mathématiques.

En poursuivant le programme de Langlands, les mathématiciens l'ont également élargi dans de nombreuses directions.

L'une de ces directions a été l'étude de dualités entre des objets arithmétiques apparentés, mais distincts, de ceux qui intéressaient Langlands. Dans leur livre de 2012, Sakellaridis et Venkatesh ont étudié une dualité entre les périodes, qui sont étroitement liées aux formes automorphes, et les fonctions L, qui sont des sommes infinies attachées aux groupes de Galois. D'un point de vue mathématique, les périodes et les L-fonctions sont des objets d'espèces totalement différentes, sans traits communs évidents.

Les périodes sont devenues des objets d'intérêt mathématique dans les travaux d'Erich Hecke dans les années 1930.

Les fonctions L sont des sommes infinies utilisées depuis les travaux de Leonhard Euler au milieu du 18e siècle pour étudier des questions fondamentales sur les nombres. La fonction L la plus célèbre, la fonction zêta de Riemann, est au cœur de l'hypothèse de Riemann, qui peut être considérée comme une prédiction sur la répartition des nombres premiers. L'hypothèse de Riemann est sans doute le plus important problème non résolu en mathématiques.

Langlands était conscient des liens possibles entre les fonctions L et les périodes, mais il les considérait comme une question secondaire dans son projet de relier différents domaines des mathématiques.

"Dans un article, [Langlands] considérait que l'étude des périodes et des fonctions L ne valait pas la peine d'être étudiée", a déclaré M. Sakellaridis.

Bienvenue dans la machine

Bien que Robert Langlands n'ait pas insisté sur le lien entre les périodes et les fonctions L, Sakellaridis et Venkatesh les considéraient comme essentiels pour élargir et approfondir les liens entre des domaines mathématiques apparemment éloignés, comme l'avait proposé Langlands.

Dans leur livre de 2012, ils ont développé une sorte de machine qui prend une période en entrée, effectue un long calcul et produit une fonction L. Cependant, toutes les périodes ne produisent pas des L-fonctions correspondantes, et la principale avancée théorique de leur livre était de comprendre lesquelles le font. (Ce travail s'appuie sur des travaux antérieurs d'Atsushi Ichino et de Tamotsu Ikeda à l'université de Kyoto).

Mais leur approche avait deux limites. Premièrement, elle n'explique pas pourquoi une période donnée produit une fonction L donnée. La machine qui transforme l'une en l'autre était une boîte noire. C'était comme s'ils avaient construit un distributeur automatique qui produisait souvent de manière fiable quelque chose à manger chaque fois que vous mettiez de l'argent, sauf qu'il était impossible de savoir ce que ce serait à l'avance, ou si la machine mangerait l'argent sans distribuer d'en-cas.

Dans tous les cas, vous deviez déposer votre argent - votre période - puis "faire un long calcul et voir quelle fonction L vous obteniez parmi un zoo de fonctions", a déclaré M. Venkatesh.

La deuxième chose qu'ils n'ont pas réussi à faire dans leur livre, c'est de comprendre quelles fonctions L ont des périodes associées. Certaines en ont. D'autres non. Ils n'ont pas réussi à comprendre pourquoi.

Ils ont continué à travailler après la publication du livre, en essayant de comprendre pourquoi la connexion fonctionnait et comment faire fonctionner la machine dans les deux sens - non seulement en obtenant une fonction L à partir d'une période, mais aussi dans l'autre sens.

En d'autres termes, ils voulaient savoir que s'ils mettaient 1,50 $ dans le distributeur automatique, cela signifiait qu'ils allaient recevoir un sachet de Cheetos. De plus, ils voulaient pouvoir dire que s'ils tenaient un sachet de Cheetos, cela signifiait qu'ils avaient mis 1,50 $ dans le distributeur automatique.

Parce qu'elles relient des objets qui, à première vue, n'ont rien en commun, les dualités sont puissantes. Vous pourriez fixer un alignement d'objets mathématiques pendant une éternité sans percevoir la correspondance entre les fonctions L et les périodes.

"La manière dont elles sont définies et données, cette période et cette fonction L, n'a rien d'évident", explique Wee Teck Gan, de l'université nationale de Singapour.

Pour traduire des choses superficiellement incommensurables, il faut trouver un terrain d'entente. L'un des moyens d'y parvenir pour des objets tels que les fonctions L et les périodes, qui trouvent leur origine dans la théorie des nombres, est de les associer à des objets géométriques.

Pour prendre un exemple ludique, imaginez que vous avez un triangle. Mesurez la longueur de chaque côté et vous obtiendrez un ensemble de nombres qui vous indiquera comment écrire une fonction L. Prenez un autre triangle et, au lieu de mesurer les longueurs, regardez les trois angles intérieurs - vous pouvez utiliser ces angles pour définir une période. Ainsi, au lieu de comparer directement les fonctions L et les périodes, vous pouvez comparer les triangles qui leur sont associés. On peut dire que les triangles "indexent" les L-fonctions et les périodes - si une période correspond à un triangle avec certains angles, alors les longueurs de ce triangle correspondent à une L-fonction correspondante.

Si une période correspond à un triangle avec certains angles, les longueurs de ce triangle correspondent à une fonction L. "Cette période et cette fonction L, il n'y a pas de relation évidente dans la façon dont elles vous sont données. L'idée était donc que si vous pouviez comprendre chacune d'entre elles d'une autre manière, d'une manière différente, vous pourriez découvrir qu'elles sont très comparables", a déclaré M. Gan.

Dans leur ouvrage de 2012, Sakellaridis et Venkatesh ont réalisé une partie de cette traduction. Ils ont trouvé un moyen satisfaisant d'indexer des périodes en utilisant un certain type d'objet géométrique. Mais ils n'ont pas pu trouver une façon similaire de penser aux fonctions L.

Ben-Zvi pensait pouvoir le faire.

Le double marteau de Maxwell

Alors que les travaux de Sakellaridis et Venkatesh se situaient légèrement à côté de la vision de Langlands, Ben-Zvi travaillait dans un domaine des mathématiques qui se situait dans un univers totalement différent - une version géométrique du programme de Langlands.

Le programme géométrique de Langlands a débuté au début des années 1980, lorsque Vladimir Drinfeld et Alexander Beilinson ont suggéré une sorte de dualité de second ordre. Drinfeld et Beilinson ont proposé que la dualité de Langlands entre les groupes de Galois et les formes automorphes puisse être interprétée comme une dualité analogue entre deux types d'objets géométriques. Mais lorsque Ben-Zvi a commencé à travailler dans le programme géométrique de Langlands en tant qu'étudiant diplômé à l'université de Harvard dans les années 1990, le lien entre le programme géométrique et le programme original de Langlands était quelque peu ambitieux.

"Lorsque le programme géométrique de Langlands a été introduit pour la première fois, il s'agissait d'une séquence d'étapes psychologiques pour passer du programme original de Langlands à cet énoncé géométrique qui semblait être un tout autre genre d'animal", a déclaré M. Ben-Zvi.

En 2018, lorsque M. Ben-Zvi a passé une année sabbatique à l'Institute for Advanced Study, les deux parties se sont rapprochées, notamment dans les travaux publiés la même année par Vincent Lafforgue, chercheur à l'Institut Fourier de Grenoble. Pourtant, M. Ben-Zvi prévoyait d'utiliser son séjour sabbatique de 2018 à l'IAS pour effectuer des recherches sur l'aspect géométrique du programme Langlands. Son plan a été perturbé lorsqu'il est allé écouter un exposé de Venkatesh.

"Mon fils et la fille d'Akshay étaient des camarades de jeu, et nous étions amis sur le plan social, et j'ai pensé que je devrais assister à certaines des conférences qu'Akshay a données au début du semestre", a déclaré Ben-Zvi.

Lors de l'une de ces premières conférences, Venkatesh a expliqué qu'il fallait trouver un type d'objet géométrique capable d'indexer à la fois les périodes et les fonctions L, et il a décrit certains de ses récents progrès dans cette direction. Il s'agissait d'essayer d'utiliser des espaces géométriques issus d'un domaine des mathématiques appelé géométrie symplectique, que Ben-Zvi connaissait bien pour avoir travaillé dans le cadre du programme géométrique de Langlands.

"Akshay et Yiannis ont poussé dans une direction où ils ont commencé à voir des choses dans la géométrie symplectique, et cela m'a fait penser à plusieurs choses", a déclaré M. Ben-Zvi.

L'étape suivante est venue de la physique.

Pendant des décennies, les physiciens et les mathématiciens ont utilisé les dualités pour trouver de nouvelles descriptions du fonctionnement des forces de la nature. Le premier exemple, et le plus célèbre, est celui des équations de Maxwell, écrites pour la première fois à la fin du XIXe siècle, qui relient les champs électriques et magnétiques. Ces équations décrivent comment un champ électrique changeant crée un champ magnétique, et comment un champ magnétique changeant crée à son tour un champ électrique. Ils peuvent être décrits conjointement comme un champ électromagnétique unique. Dans le vide, "ces équations présentent une merveilleuse symétrie", a déclaré M. Ben-Zvi. Mathématiquement, l'électricité et le magnétisme peuvent changer de place sans modifier le comportement du champ électromagnétique commun.

Parfois, les chercheurs s'inspirent de la physique pour prouver des résultats purement mathématiques. Par exemple, dans un article de 2008, les physiciens Davide Gaiotto et Edward Witten ont montré comment les espaces géométriques liés aux théories quantiques des champs de l'électromagnétisme s'intègrent dans le programme géométrique de Langlands. Ces espaces sont présentés par paires, une pour chaque côté de la dualité électromagnétique : les espaces G hamiltoniens et leur dual : Les espaces Ğ hamiltoniens (prononcés espaces G-hat).

Ben-Zvi avait pris connaissance de l'article de Gaiotto-Witten lors de sa publication, et il avait utilisé le cadre physique qu'il fournissait pour réfléchir à des questions relatives à la géométrie de Langlands. Mais ce travail - sans parler de l'article de physique qui l'a motivé - n'avait aucun lien avec le programme original de Langlands.

Jusqu'à ce que Ben-Zvi se retrouve dans le public de l'IAS en train d'écouter Venkatesh. Il a entendu Venkatesh expliquer qu'à la suite de leur livre de 2012, lui et Sakellaridis en étaient venus à penser que la bonne façon géométrique d'envisager les périodes était en termes d'espaces Hamiltoniens G. Mais Venkatesh a admis qu'ils ne savaient pas quel type d'objet géométrique associer aux L-fonctions. 

Cela a mis la puce à l'oreille de Ben-Zvi. Une fois que Sakellaridis et Venkatesh ont relié les périodes aux espaces G hamiltoniens, les objets géométriques duaux des fonctions L sont devenus immédiatement clairs : les espaces Ğ dont Gaiotto et Witten avaient dit qu'ils étaient les duaux des espaces G. Pour Ben-Zvi, toutes ces dualités, entre l'arithmétique, la géométrie et la physique, semblaient converger. Même s'il ne comprenait pas toute la théorie des nombres, il était convaincu que tout cela faisait partie d'une "grande et belle image".

To G or Not to Ğ

Au printemps 2018, Ben-Zvi, Sakellaridis et Venkatesh se sont rencontrés régulièrement au restaurant du campus de l'Institute for Advanced Study ; pendant quelques mois, ils ont cherché à savoir comment interpréter les données extraites des L-fonctions comme une recette pour construire des Ğ-espaces hamiltoniens. Dans l'image qu'ils ont établie, la dualité entre les périodes et les fonctions L se traduit par une dualité géométrique qui prend tout son sens dans le programme géométrique de Langlands et trouve son origine dans la dualité entre l'électricité et le magnétisme. La physique et l'arithmétique deviennent des échos l'une de l'autre, d'une manière qui se répercute sur l'ensemble du programme de Langlands.

"On pourrait dire que le cadre original de Langlands est maintenant un cas particulier de ce nouveau cadre", a déclaré M. Gan.

En unifiant des phénomènes disparates, les trois mathématiciens ont apporté une partie de l'ordre intrinsèque à la relation entre l'électricité et le magnétisme à la relation entre les périodes et les fonctions L.

"L'interprétation physique de la correspondance géométrique de Langlands la rend beaucoup plus naturelle ; elle s'inscrit dans cette image générale des dualités", a déclaré Kim. "D'une certaine manière, ce que [ce nouveau travail] fait est un moyen d'interpréter la correspondance arithmétique en utilisant le même type de langage.

Le travail a ses limites. Les trois mathématiciens prouvent en particulier  la dualité entre les périodes et les fonctions L sur des systèmes de nombres qui apparaissent en géométrie, appelés champs de fonctions, plutôt que sur des champs de nombres - comme les nombres réels - qui sont le véritable domaine d'application du programme de Langlands.

"L'image de base est censée s'appliquer aux corps de nombres. Je pense que tout cela sera finalement développé pour les corps de nombres", a déclaré M. Venkatesh.

Même sur les champs de fonctions, le travail met de l'ordre dans la relation entre les périodes et les fonctions L. Pendant les mois où Venkatesh a transporté un imprimé dans sa poche, lui et Sakellaridis n'avaient aucune idée de la raison pour laquelle ces fonctions L devraient être celles qui sont associées aux périodes. Aujourd'hui, la relation est logique dans les deux sens. Ils peuvent la traduire librement en utilisant un langage commun.

"J'ai connu toutes ces périodes et j'ai soudain appris que je pouvais retourner chacune d'entre elles et qu'elle se transformait en une autre que je connaissais également. C'est une prise de conscience très choquante", a déclaré M. Venkatesh.



 

Auteur: Internet

Info: https://www.quantamagazine.org. Kevin Hartnett, contributing Writer, October 12, 2023 https://www.quantamagazine.org/echoes-of-electromagnetism-found-in-number-theory-20231012/?mc_cid=cc4eb576af&mc_eid=78bedba296

[ fonction L p-adique ] [ fonction périodique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interrogation

Pourquoi cet univers ? Un nouveau calcul suggère que notre cosmos est typique.

Deux physiciens ont calculé que l’univers a une entropie plus élevée – et donc plus probable – que d’autres univers possibles. Le calcul est " une réponse à une question qui n’a pas encore été pleinement comprise ".

(image : Les propriétés de notre univers – lisse, plat, juste une pincée d’énergie noire – sont ce à quoi nous devrions nous attendre, selon un nouveau calcul.)

Les cosmologues ont passé des décennies à chercher à comprendre pourquoi notre univers est si étonnamment vanille. Non seulement il est lisse et plat à perte de vue, mais il s'étend également à un rythme toujours plus lent, alors que des calculs naïfs suggèrent que – à la sortie du Big Bang – l'espace aurait dû se froisser sous l'effet de la gravité et détruit par une énergie noire répulsive.

Pour expliquer la planéité du cosmos, les physiciens ont ajouté un premier chapitre dramatique à l'histoire cosmique : ils proposent que l'espace se soit rapidement gonflé comme un ballon au début du Big Bang, aplanissant toute courbure. Et pour expliquer la légère croissance de l’espace après cette première période d’inflation, certains ont avancé que notre univers n’est qu’un parmi tant d’autres univers moins hospitaliers dans un multivers géant.

Mais maintenant, deux physiciens ont bouleversé la pensée conventionnelle sur notre univers vanille. Suivant une ligne de recherche lancée par Stephen Hawking et Gary Gibbons en 1977, le duo a publié un nouveau calcul suggérant que la clarté du cosmos est attendue plutôt que rare. Notre univers est tel qu'il est, selon Neil Turok de l'Université d'Édimbourg et Latham Boyle de l'Institut Perimeter de physique théorique de Waterloo, au Canada, pour la même raison que l'air se propage uniformément dans une pièce : des options plus étranges sont concevables, mais extrêmement improbable.

L'univers " peut sembler extrêmement précis, extrêmement improbable, mais eux  disent : 'Attendez une minute, c'est l'univers préféré' ", a déclaré Thomas Hertog , cosmologue à l'Université catholique de Louvain en Belgique.

"Il s'agit d'une contribution nouvelle qui utilise des méthodes différentes de celles utilisées par la plupart des gens", a déclaré Steffen Gielen , cosmologue à l'Université de Sheffield au Royaume-Uni.

La conclusion provocatrice repose sur une astuce mathématique consistant à passer à une horloge qui tourne avec des nombres imaginaires. En utilisant l'horloge imaginaire, comme Hawking l'a fait dans les années 70, Turok et Boyle ont pu calculer une quantité, connue sous le nom d'entropie, qui semble correspondre à notre univers. Mais l’astuce du temps imaginaire est une manière détournée de calculer l’entropie, et sans une méthode plus rigoureuse, la signification de la quantité reste vivement débattue. Alors que les physiciens s’interrogent sur l’interprétation correcte du calcul de l’entropie, beaucoup le considèrent comme un nouveau guide sur la voie de la nature quantique fondamentale de l’espace et du temps.

"D'une manière ou d'une autre", a déclaré Gielen, "cela nous donne peut-être une fenêtre sur la microstructure de l'espace-temps."

Chemins imaginaires

Turok et Boyle, collaborateurs fréquents, sont réputés pour avoir conçu des idées créatives et peu orthodoxes sur la cosmologie. L’année dernière, pour étudier la probabilité que notre Univers soit probable, ils se sont tournés vers une technique développée dans les années 1940 par le physicien Richard Feynman.

Dans le but de capturer le comportement probabiliste des particules, Feynman a imaginé qu'une particule explore toutes les routes possibles reliant le début à la fin : une ligne droite, une courbe, une boucle, à l'infini. Il a imaginé un moyen d'attribuer à chaque chemin un nombre lié à sa probabilité et d'additionner tous les nombres. Cette technique de " l’intégrale du chemin " est devenue un cadre puissant pour prédire le comportement probable d’un système quantique.

Dès que Feynman a commencé à faire connaître l’intégrale du chemin, les physiciens ont repéré un curieux lien avec la thermodynamique, la vénérable science de la température et de l’énergie. C'est ce pont entre la théorie quantique et la thermodynamique qui a permis les calculs de Turok et Boyle.

La thermodynamique exploite la puissance des statistiques afin que vous puissiez utiliser seulement quelques chiffres pour décrire un système composé de plusieurs éléments, comme les milliards de molécules d'air qui s'agitent dans une pièce. La température, par exemple – essentiellement la vitesse moyenne des molécules d’air – donne une idée approximative de l’énergie de la pièce. Les propriétés globales telles que la température et la pression décrivent un "  macrostate " de la pièce.

Mais ce terme de un macro-état est un compte rendu rudimentaire ; les molécules d’air peuvent être disposées d’un très grand nombre de manières qui correspondent toutes au même macroétat. Déplacez un peu un atome d’oxygène vers la gauche et la température ne bougera pas. Chaque configuration microscopique unique est appelée microétat, et le nombre de microétats correspondant à un macroétat donné détermine son entropie.

L'entropie donne aux physiciens un moyen précis de comparer les probabilités de différents résultats : plus l'entropie d'un macroétat est élevée, plus il est probable. Il existe bien plus de façons pour les molécules d'air de s'organiser dans toute la pièce que si elles étaient regroupées dans un coin, par exemple. En conséquence, on s’attend à ce que les molécules d’air se propagent (et restent dispersées). La vérité évidente selon laquelle les résultats probables sont probables, exprimée dans le langage de la physique, devient la célèbre deuxième loi de la thermodynamique : selon laquelle l’entropie totale d’un système a tendance à croître.

La ressemblance avec l'intégrale du chemin était indubitable : en thermodynamique, on additionne toutes les configurations possibles d'un système. Et avec l’intégrale du chemin, vous additionnez tous les chemins possibles qu’un système peut emprunter. Il y a juste une distinction assez flagrante : la thermodynamique traite des probabilités, qui sont des nombres positifs qui s'additionnent simplement. Mais dans l'intégrale du chemin, le nombre attribué à chaque chemin est complexe, ce qui signifie qu'il implique le nombre imaginaire i , la racine carrée de −1. Les nombres complexes peuvent croître ou diminuer lorsqu’ils sont additionnés, ce qui leur permet de capturer la nature ondulatoire des particules quantiques, qui peuvent se combiner ou s’annuler.

Pourtant, les physiciens ont découvert qu’une simple transformation peut vous faire passer d’un domaine à un autre. Rendez le temps imaginaire (un mouvement connu sous le nom de rotation de Wick d'après le physicien italien Gian Carlo Wick), et un second i entre dans l'intégrale du chemin qui étouffe le premier, transformant les nombres imaginaires en probabilités réelles. Remplacez la variable temps par l'inverse de la température et vous obtenez une équation thermodynamique bien connue.

Cette astuce de Wick a conduit Hawking et Gibbons à une découverte à succès en 1977, à la fin d'une série éclair de découvertes théoriques sur l'espace et le temps.

L'entropie de l'espace-temps

Des décennies plus tôt, la théorie de la relativité générale d’Einstein avait révélé que l’espace et le temps formaient ensemble un tissu unifié de réalité – l’espace-temps – et que la force de gravité était en réalité la tendance des objets à suivre les plis de l’espace-temps. Dans des circonstances extrêmes, l’espace-temps peut se courber suffisamment fortement pour créer un Alcatraz incontournable connu sous le nom de trou noir.

En 1973, Jacob Bekenstein a avancé l’hérésie selon laquelle les trous noirs seraient des prisons cosmiques imparfaites. Il a estimé que les abysses devraient absorber l'entropie de leurs repas, plutôt que de supprimer cette entropie de l'univers et de violer la deuxième loi de la thermodynamique. Mais si les trous noirs ont de l’entropie, ils doivent aussi avoir des températures et rayonner de la chaleur.

Stephen Hawking, sceptique, a tenté de prouver que Bekenstein avait tort, en se lançant dans un calcul complexe du comportement des particules quantiques dans l'espace-temps incurvé d'un trou noir. À sa grande surprise, il découvrit en 1974 que les trous noirs rayonnaient effectivement. Un autre calcul a confirmé l'hypothèse de Bekenstein : un trou noir a une entropie égale au quart de la surface de son horizon des événements – le point de non-retour pour un objet tombant.

Dans les années qui suivirent, les physiciens britanniques Gibbons et Malcolm Perry, puis plus tard Gibbons et Hawking, arrivèrent au même résultat dans une autre direction . Ils ont établi une intégrale de chemin, additionnant en principe toutes les différentes manières dont l'espace-temps pourrait se plier pour former un trou noir. Ensuite, ils ont fait tourner le trou noir, marquant l'écoulement du temps avec des nombres imaginaires, et ont scruté sa forme. Ils ont découvert que, dans la direction du temps imaginaire, le trou noir revenait périodiquement à son état initial. Cette répétition semblable au jour de la marmotte dans un temps imaginaire a donné au trou noir une sorte de stase qui leur a permis de calculer sa température et son entropie.

Ils n’auraient peut-être pas fait confiance aux résultats si les réponses n’avaient pas correspondu exactement à celles calculées précédemment par Bekenstein et Hawking. À la fin de la décennie, leur travail collectif avait donné naissance à une idée surprenante : l’entropie des trous noirs impliquait que l’espace-temps lui-même était constitué de minuscules morceaux réorganisables, tout comme l’air est constitué de molécules. Et miraculeusement, même sans savoir ce qu’étaient ces " atomes gravitationnels ", les physiciens ont pu compter leurs arrangements en regardant un trou noir dans un temps imaginaire.

"C'est ce résultat qui a laissé une très profonde impression sur Hawking", a déclaré Hertog, ancien étudiant diplômé et collaborateur de longue date de Hawking. Hawking s'est immédiatement demandé si la rotation de Wick fonctionnerait pour autre chose que les trous noirs. "Si cette géométrie capture une propriété quantique d'un trou noir", a déclaré Hertog, "alors il est irrésistible de faire la même chose avec les propriétés cosmologiques de l'univers entier."

Compter tous les univers possibles

Immédiatement, Hawking et Gibbons Wick ont ​​fait tourner l’un des univers les plus simples imaginables – un univers ne contenant rien d’autre que l’énergie sombre construite dans l’espace lui-même. Cet univers vide et en expansion, appelé espace-temps " de Sitter ", a un horizon au-delà duquel l’espace s’étend si rapidement qu’aucun signal provenant de cet espace ne parviendra jamais à un observateur situé au centre de l’espace. En 1977, Gibbons et Hawking ont calculé que, comme un trou noir, un univers de De Sitter possède également une entropie égale au quart de la surface de son horizon. Encore une fois, l’espace-temps semblait comporter un nombre incalculable de micro-états.

Mais l’entropie de l’univers réel restait une question ouverte. Notre univers n'est pas vide ; il regorge de lumière rayonnante et de flux de galaxies et de matière noire. La lumière a provoqué une expansion rapide de l'espace pendant la jeunesse de l'univers, puis l'attraction gravitationnelle de la matière a ralenti les choses pendant l'adolescence cosmique. Aujourd’hui, l’énergie sombre semble avoir pris le dessus, entraînant une expansion galopante. "Cette histoire d'expansion est une aventure semée d'embûches", a déclaré Hertog. "Il n'est pas si facile d'obtenir une solution explicite."

Au cours de la dernière année, Boyle et Turok ont ​​élaboré une solution aussi explicite. Tout d'abord, en janvier, alors qu'ils jouaient avec des cosmologies jouets, ils ont remarqué que l'ajout de radiations à l'espace-temps de De Sitter ne gâchait pas la simplicité requise pour faire tourner l'univers par Wick.

Puis, au cours de l’été, ils ont découvert que la technique résisterait même à l’inclusion désordonnée de matière. La courbe mathématique décrivant l’histoire plus complexe de l’expansion relevait toujours d’un groupe particulier de fonctions faciles à manipuler, et le monde de la thermodynamique restait accessible. "Cette rotation de Wick est une affaire trouble lorsque l'on s'éloigne d'un espace-temps très symétrique", a déclaré Guilherme Leite Pimentel , cosmologiste à la Scuola Normale Superiore de Pise, en Italie. "Mais ils ont réussi à le trouver."

En faisant tourner Wick l’histoire de l’expansion en montagnes russes d’une classe d’univers plus réaliste, ils ont obtenu une équation plus polyvalente pour l’entropie cosmique. Pour une large gamme de macroétats cosmiques définis par le rayonnement, la matière, la courbure et une densité d'énergie sombre (tout comme une plage de températures et de pressions définit différents environnements possibles d'une pièce), la formule crache le nombre de microétats correspondants. Turok et Boyle ont publié leurs résultats en ligne début octobre.

Les experts ont salué le résultat explicite et quantitatif. Mais à partir de leur équation d’entropie, Boyle et Turok ont ​​tiré une conclusion non conventionnelle sur la nature de notre univers. "C'est là que cela devient un peu plus intéressant et un peu plus controversé", a déclaré Hertog.

Boyle et Turok pensent que l'équation effectue un recensement de toutes les histoires cosmiques imaginables. Tout comme l'entropie d'une pièce compte toutes les façons d'arranger les molécules d'air pour une température donnée, ils soupçonnent que leur entropie compte toutes les façons dont on peut mélanger les atomes de l'espace-temps et se retrouver avec un univers avec une histoire globale donnée. courbure et densité d’énergie sombre.

Boyle compare le processus à l'examen d'un gigantesque sac de billes, chacune représentant un univers différent. Ceux qui ont une courbure négative pourraient être verts. Ceux qui ont des tonnes d'énergie sombre pourraient être des yeux de chat, et ainsi de suite. Leur recensement révèle que l’écrasante majorité des billes n’ont qu’une seule couleur – le bleu, par exemple – correspondant à un type d’univers : un univers globalement semblable au nôtre, sans courbure appréciable et juste une touche d’énergie sombre. Les types de cosmos les plus étranges sont extrêmement rares. En d’autres termes, les caractéristiques étrangement vanille de notre univers qui ont motivé des décennies de théorie sur l’inflation cosmique et le multivers ne sont peut-être pas étranges du tout.

"C'est un résultat très intrigant", a déclaré Hertog. Mais " cela soulève plus de questions que de réponses ".

Compter la confusion

Boyle et Turok ont ​​calculé une équation qui compte les univers. Et ils ont fait l’observation frappante que des univers comme le nôtre semblent représenter la part du lion des options cosmiques imaginables. Mais c’est là que s’arrête la certitude.

Le duo ne tente pas d’expliquer quelle théorie quantique de la gravité et de la cosmologie pourrait rendre certains univers communs ou rares. Ils n’expliquent pas non plus comment notre univers, avec sa configuration particulière de parties microscopiques, est né. En fin de compte, ils considèrent leurs calculs comme un indice permettant de déterminer quels types d’univers sont préférés plutôt que comme quelque chose qui se rapproche d’une théorie complète de la cosmologie. "Ce que nous avons utilisé est une astuce bon marché pour obtenir la réponse sans connaître la théorie", a déclaré Turok.

Leurs travaux revitalisent également une question restée sans réponse depuis que Gibbons et Hawking ont lancé pour la première fois toute l’histoire de l’entropie spatio-temporelle : quels sont exactement les micro-états que compte l’astuce bon marché ?

"L'essentiel ici est de dire que nous ne savons pas ce que signifie cette entropie", a déclaré Henry Maxfield , physicien à l'Université de Stanford qui étudie les théories quantiques de la gravité.

En son cœur, l’entropie résume l’ignorance. Pour un gaz constitué de molécules, par exemple, les physiciens connaissent la température – la vitesse moyenne des particules – mais pas ce que fait chaque particule ; l'entropie du gaz reflète le nombre d'options.

Après des décennies de travaux théoriques, les physiciens convergent vers une vision similaire pour les trous noirs. De nombreux théoriciens pensent aujourd'hui que la zone de l'horizon décrit leur ignorance de ce qui s'y trouve, de toutes les façons dont les éléments constitutifs du trou noir sont disposés de manière interne pour correspondre à son apparence extérieure. (Les chercheurs ne savent toujours pas ce que sont réellement les microétats ; les idées incluent des configurations de particules appelées gravitons ou cordes de la théorie des cordes.)

Mais lorsqu’il s’agit de l’entropie de l’univers, les physiciens se sentent moins sûrs de savoir où se situe leur ignorance.

En avril, deux théoriciens ont tenté de donner à l’entropie cosmologique une base mathématique plus solide. Ted Jacobson , physicien à l'Université du Maryland réputé pour avoir dérivé la théorie de la gravité d'Einstein de la thermodynamique des trous noirs, et son étudiant diplômé Batoul Banihashemi ont explicitement défini l'entropie d'un univers de Sitter (vacant et en expansion). Ils ont adopté la perspective d’un observateur au centre. Leur technique, qui consistait à ajouter une surface fictive entre l'observateur central et l'horizon, puis à rétrécir la surface jusqu'à ce qu'elle atteigne l'observateur central et disparaisse, a récupéré la réponse de Gibbons et Hawking selon laquelle l'entropie est égale à un quart de la surface de l'horizon. Ils ont conclu que l’entropie de De Sitter compte tous les microétats possibles à l’intérieur de l’horizon.

Turok et Boyle calculent la même entropie que Jacobson et Banihashemi pour un univers vide. Mais dans leur nouveau calcul relatif à un univers réaliste rempli de matière et de rayonnement, ils obtiennent un nombre beaucoup plus grand de microétats – proportionnels au volume et non à la surface. Face à ce conflit apparent, ils spéculent que les différentes entropies répondent à des questions différentes : la plus petite entropie de De Sitter compte les microétats d'un espace-temps pur délimité par un horizon, tandis qu'ils soupçonnent que leur plus grande entropie compte tous les microétats d'un espace-temps rempli d'espace-temps. matière et énergie, tant à l’intérieur qu’à l’extérieur de l’horizon. "C'est tout un shebang", a déclaré Turok.

En fin de compte, régler la question de savoir ce que comptent Boyle et Turok nécessitera une définition mathématique plus explicite de l’ensemble des microétats, analogue à ce que Jacobson et Banihashemi ont fait pour l’espace de Sitter. Banihashemi a déclaré qu'elle considérait le calcul d'entropie de Boyle et Turok " comme une réponse à une question qui n'a pas encore été entièrement comprise ".

Quant aux réponses plus établies à la question " Pourquoi cet univers ? ", les cosmologistes affirment que l’inflation et le multivers sont loin d’être morts. La théorie moderne de l’inflation, en particulier, est parvenue à résoudre bien plus que la simple question de la douceur et de la planéité de l’univers. Les observations du ciel correspondent à bon nombre de ses autres prédictions. L'argument entropique de Turok et Boyle a passé avec succès un premier test notable, a déclaré Pimentel, mais il lui faudra trouver d'autres données plus détaillées pour rivaliser plus sérieusement avec l'inflation.

Comme il sied à une grandeur qui mesure l’ignorance, les mystères enracinés dans l’entropie ont déjà servi de précurseurs à une physique inconnue. À la fin des années 1800, une compréhension précise de l’entropie en termes d’arrangements microscopiques a permis de confirmer l’existence des atomes. Aujourd'hui, l'espoir est que si les chercheurs calculant l'entropie cosmologique de différentes manières peuvent déterminer exactement à quelles questions ils répondent, ces chiffres les guideront vers une compréhension similaire de la façon dont les briques Lego du temps et de l'espace s'empilent pour créer l'univers qui nous entoure.

"Notre calcul fournit une énorme motivation supplémentaire aux personnes qui tentent de construire des théories microscopiques de la gravité quantique", a déclaré Turok. "Parce que la perspective est que cette théorie finira par expliquer la géométrie à grande échelle de l'univers."

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 17 nov 2022

[ constante fondamentale ] [ 1/137 ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective

La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.

Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.

Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.

Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.

Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".

 L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).

S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.

LE CŒUR DU PROBLÈME

Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.

Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.

Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.

Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.

Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.

Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.

Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.

ASPECTS CRUCIAUX DE LA RÉALITÉ

Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.

La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.

La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.

La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.

Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.

Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.

Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.

Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.

En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.

CHOISISSEZ VOTRE POISON

Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.

Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.

D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.

Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

UNE NON LOCALITÉ PLUS PROFONDE

Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.

 Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.

Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.

En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."

Auteur: Internet

Info: https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023

[ enchevêtrement quantique ] [ régions de l'espace-temps ] [ monde subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

auto-programmation

Pieuvres et calmars modifient et corrigent (édit en anglais) leur ARN, tout en laissant l'ADN intact. Des changements qui pourraient expliquer l'intelligence et la flexibilité des céphalopodes dépourvus de coquille

De nombreux écrivains se plaignent lorsqu'un rédacteur  vient éditer et donc modifier leur article, mais les conséquences de la modification d'un seul mot ne sont généralement pas si graves.

Ce n'est pas le cas des instructions génétiques pour la fabrication des protéines. Même une petite modification peut empêcher une protéine de faire son travail correctement, ce qui peut avoir des conséquences mortelles. Ce n'est qu'occasionnellement qu'un changement est bénéfique. Il semble plus sage de conserver les instructions génétiques telles qu'elles sont écrites. À moins d'être une pieuvre.

Les pieuvres sont comme des extraterrestres qui vivent parmi nous : elles font beaucoup de choses différemment des animaux terrestres ou même des autres créatures marines. Leurs tentacules flexibles goûtent ce qu'ils touchent et ont leur esprit propre. Les yeux des pieuvres sont daltoniens, mais leur peau peut détecter la lumière par elle-même. Les pieuvres sont des maîtres du déguisement, changeant de couleur et de texture de peau pour se fondre dans leur environnement ou effrayer leurs rivaux. Et plus que la plupart des créatures, les pieuvres font gicler l'équivalent moléculaire de l'encre rouge sur leurs instructions génétiques avec un abandon stupéfiant, comme un rédacteur en chef déchaîné.

Ces modifications-éditions concernent l'ARN, molécule utilisée pour traduire les informations du plan génétique stocké dans l'ADN, tout en laissant l'ADN intact.

Les scientifiques ne savent pas encore avec certitude pourquoi les pieuvres et d'autres céphalopodes sans carapace, comme les calmars et les seiches, sont des modificateurs aussi prolifiques. Les chercheurs se demandent si cette forme d'édition génétique a donné aux céphalopodes une longueur d'avance sur le plan de l'évolution (ou un tentacule) ou si cette capacité n'est qu'un accident parfois utile. Les scientifiques étudient également les conséquences que les modifications de l'ARN peuvent avoir dans diverses conditions. Certaines données suggèrent que l'édition pourrait donner aux céphalopodes une partie de leur intelligence, mais au prix d'un ralentissement de l'évolution de leur ADN.

"Ces animaux sont tout simplement magiques", déclare Caroline Albertin, biologiste spécialiste du développement comparatif au Marine Biological Laboratory de Woods Hole (Massachusetts). "Ils ont toutes sortes de solutions différentes pour vivre dans le monde d'où ils viennent. L'édition de l'ARN pourrait contribuer à donner à ces créatures un grand nombre de solutions aux problèmes qu'elles peuvent rencontrer.

(vidéo - Contrairement à d'autres animaux à symétrie bilatérale, les pieuvres ne rampent pas dans une direction prédéterminée. Des vidéos de pieuvres en train de ramper montrent qu'elles peuvent se déplacer dans n'importe quelle direction par rapport à leur corps, et qu'elles changent de direction de rampe sans avoir à tourner leur corps. Dans le clip, la flèche verte indique l'orientation du corps de la pieuvre et la flèche bleue indique la direction dans laquelle elle rampe.)

Le dogme central de la biologie moléculaire veut que les instructions pour construire un organisme soient contenues dans l'ADN. Les cellules copient ces instructions dans des ARN messagers, ou ARNm. Ensuite, des machines cellulaires appelées ribosomes lisent les ARNm pour construire des protéines en enchaînant des acides aminés. La plupart du temps, la composition de la protéine est conforme au modèle d'ADN pour la séquence d'acides aminés de la protéine.

Mais l'édition de l'ARN peut entraîner des divergences par rapport aux instructions de l'ADN, créant ainsi des protéines dont les acides aminés sont différents de ceux spécifiés par l'ADN.

L'édition modifie chimiquement l'un des quatre éléments constitutifs de l'ARN, ou bases. Ces bases sont souvent désignées par les premières lettres de leur nom : A, C, G et U, pour adénine, cytosine, guanine et uracile (la version ARN de la base ADN thymine). Dans une molécule d'ARN, les bases sont liées à des sucres ; l'unité adénine-sucre, par exemple, est appelée adénosine.

Il existe de nombreuses façons d'éditer des lettres d'ARN. Les céphalopodes excellent dans un type d'édition connu sous le nom d'édition de l'adénosine à l'inosine, ou A-to-I. Cela se produit lorsqu'une enzyme appelée ADAR2 enlève un atome d'azote et deux atomes d'hydrogène de l'adénosine (le A). Ce pelage chimique transforme l'adénosine en inosine (I).

 Les ribosomes lisent l'inosine comme une guanine au lieu d'une adénine. Parfois, ce changement n'a aucun effet sur la chaîne d'acides aminés de la protéine résultante. Mais dans certains cas, la présence d'un G à la place d'un A entraîne l'insertion d'un acide aminé différent dans la protéine. Ce type d'édition de l'ARN modifiant la protéine est appelé recodage de l'ARN.

Les céphalopodes à corps mou ont adopté le recodage de l'ARN à bras-le-corps, alors que même les espèces étroitement apparentées sont plus hésitantes à accepter les réécritures, explique Albertin. "Les autres mollusques ne semblent pas le faire dans la même mesure.

L'édition de l'ARN ne se limite pas aux créatures des profondeurs. Presque tous les organismes multicellulaires possèdent une ou plusieurs enzymes d'édition de l'ARN appelées enzymes ADAR, abréviation de "adénosine désaminase agissant sur l'ARN", explique Joshua Rosenthal, neurobiologiste moléculaire au Marine Biological Laboratory.

Les céphalopodes possèdent deux enzymes ADAR. L'homme possède également des versions de ces enzymes. "Dans notre cerveau, nous modifions une tonne d'ARN. Nous le faisons beaucoup", explique Rosenthal. Au cours de la dernière décennie, les scientifiques ont découvert des millions d'endroits dans les ARN humains où se produit l'édition.

Mais ces modifications changent rarement les acides aminés d'une protéine. Par exemple, Eli Eisenberg, de l'université de Tel Aviv, et ses collègues ont identifié plus de 4,6 millions de sites d'édition dans les ARN humains. Parmi ceux-ci, seuls 1 517 recodent les protéines, ont rapporté les chercheurs l'année dernière dans Nature Communications. Parmi ces sites de recodage, jusqu'à 835 sont partagés avec d'autres mammifères, ce qui suggère que les forces de l'évolution ont préservé l'édition à ces endroits.

(Encadré :  Comment fonctionne l'édition de l'ARN ?

Dans une forme courante d'édition de l'ARN, une adénosine devient une inosine par une réaction qui supprime un groupe aminé et le remplace par un oxygène (flèches). L'illustration montre une enzyme ADAR se fixant à un ARN double brin au niveau du "domaine de liaison de l'ARNdb". La région de l'enzyme qui interagit pour provoquer la réaction, le "domaine de la désaminase", est positionnée près de l'adénosine qui deviendra une inosine.)

Les céphalopodes portent le recodage de l'ARN à un tout autre niveau, dit Albertin. L'encornet rouge (Doryteuthis pealeii) possède 57 108 sites de recodage, ont rapporté Rosenthal, Eisenberg et leurs collègues en 2015 dans eLife. Depuis, les chercheurs ont examiné plusieurs espèces de pieuvres, de calmars et de seiches, et ont à chaque fois trouvé des dizaines de milliers de sites de recodage.

Les céphalopodes à corps mou, ou coléoïdes, pourraient avoir plus de possibilités d'édition que les autres animaux en raison de l'emplacement d'au moins une des enzymes ADAR, ADAR2, dans la cellule. La plupart des animaux éditent les ARN dans le noyau - le compartiment où l'ADN est stocké et copié en ARN - avant d'envoyer les messages à la rencontre des ribosomes. Mais chez les céphalopodes, les enzymes se trouvent également dans le cytoplasme, l'organe gélatineux des cellules, ont découvert Rosenthal et ses collègues (SN : 4/25/20, p. 10).

Le fait d'avoir des enzymes d'édition dans deux endroits différents n'explique pas complètement pourquoi le recodage de l'ARN chez les céphalopodes dépasse de loin celui des humains et d'autres animaux. Cela n'explique pas non plus les schémas d'édition que les scientifiques ont découverts.

L'édition de l'ARN amènerait de la flexibilité aux céphalopodes

L'édition n'est pas une proposition "tout ou rien". Il est rare que toutes les copies d'un ARN dans une cellule soient modifiées. Il est beaucoup plus fréquent qu'un certain pourcentage d'ARN soit édité tandis que le reste conserve son information originale. Le pourcentage, ou fréquence, de l'édition peut varier considérablement d'un ARN à l'autre ou d'une cellule ou d'un tissu à l'autre, et peut dépendre de la température de l'eau ou d'autres conditions. Chez le calmar à nageoires longues, la plupart des sites d'édition de l'ARN étaient édités 2 % ou moins du temps, ont rapporté Albertin et ses collègues l'année dernière dans Nature Communications. Mais les chercheurs ont également trouvé plus de 205 000 sites qui étaient modifiés 25 % du temps ou plus.

Dans la majeure partie du corps d'un céphalopode, l'édition de l'ARN n'affecte pas souvent la composition des protéines. Mais dans le système nerveux, c'est une autre histoire. Dans le système nerveux du calmar à nageoires longues, 70 % des modifications apportées aux ARN producteurs de protéines recodent ces dernières. Dans le système nerveux de la pieuvre californienne à deux points (Octopus bimaculoides), les ARN sont recodés trois à six fois plus souvent que dans d'autres organes ou tissus.

(Photo -  L'encornet rouge recode l'ARN à plus de 50 000 endroits. Le recodage de l'ARN pourrait aider le calmar à réagir avec plus de souplesse à son environnement, mais on ne sait pas encore si le recodage a une valeur évolutive. Certains ARNm possèdent plusieurs sites d'édition qui modifient les acides aminés des protéines codées par les ARNm. Dans le système nerveux de l'encornet rouge, par exemple, 27 % des ARNm ont trois sites de recodage ou plus. Certains contiennent 10 sites ou plus. La combinaison de ces sites d'édition pourrait entraîner la fabrication de plusieurs versions d'une protéine dans une cellule.)

Le fait de disposer d'un large choix de protéines pourrait donner aux céphalopodes "plus de souplesse pour réagir à l'environnement", explique M. Albertin, "ou leur permettre de trouver diverses solutions au problème qui se pose à eux". Dans le système nerveux, l'édition de l'ARN pourrait contribuer à la flexibilité de la pensée, ce qui pourrait expliquer pourquoi les pieuvres peuvent déverrouiller des cages ou utiliser des outils, pensent certains chercheurs. L'édition pourrait être un moyen facile de créer une ou plusieurs versions d'une protéine dans le système nerveux et des versions différentes dans le reste du corps, explique Albertin.

Lorsque l'homme et d'autres vertébrés ont des versions différentes d'une protéine, c'est souvent parce qu'ils possèdent plusieurs copies d'un gène. Doubler, tripler ou quadrupler les copies d'un gène "permet de créer tout un terrain de jeu génétique pour permettre aux gènes de s'activer et d'accomplir différentes fonctions", explique M. Albertin. Mais les céphalopodes ont tendance à ne pas dupliquer les gènes. Leurs innovations proviennent plutôt de l'édition.

Et il y a beaucoup de place pour l'innovation. Chez le calmar, les ARNm servant à construire la protéine alpha-spectrine comportent 242 sites de recodage. Toutes les combinaisons de sites modifiés et non modifiés pourraient théoriquement créer jusqu'à 7 x 1072 formes de la protéine, rapportent Rosenthal et Eisenberg dans le numéro de cette année de l'Annual Review of Animal Biosciences (Revue annuelle des biosciences animales). "Pour mettre ce chiffre en perspective, écrivent les chercheurs, il suffit de dire qu'il éclipse le nombre de toutes les molécules d'alpha-spectrine (ou, d'ailleurs, de toutes les molécules de protéines) synthétisées dans toutes les cellules de tous les calmars qui ont vécu sur notre planète depuis l'aube des temps.

Selon Kavita Rangan, biologiste moléculaire à l'université de Californie à San Diego, ce niveau de complexité incroyable ne serait possible que si chaque site était indépendant. Rangan a étudié le recodage de l'ARN chez le calmar californien (Doryteuthis opalescens) et le calmar à nageoires longues. La température de l'eau incite les calmars à recoder les protéines motrices appelées kinésines qui déplacent les cargaisons à l'intérieur des cellules.

Chez l'encornet rouge, l'ARNm qui produit la kinésine-1 comporte 14 sites de recodage, a découvert Mme Rangan. Elle a examiné les ARNm du lobe optique - la partie du cerveau qui traite les informations visuelles - et du ganglion stellaire, un ensemble de nerfs impliqués dans la génération des contractions musculaires qui produisent des jets d'eau pour propulser le calmar.

Chaque tissu produit plusieurs versions de la protéine. Rangan et Samara Reck-Peterson, également de l'UC San Diego, ont rapporté en septembre dernier dans un article publié en ligne sur bioRxiv.org que certains sites avaient tendance à être édités ensemble. Leurs données suggèrent que l'édition de certains sites est coordonnée et "rejette très fortement l'idée que l'édition est indépendante", explique Rangan. "La fréquence des combinaisons que nous observons ne correspond pas à l'idée que chaque site a été édité indépendamment.

L'association de sites d'édition pourrait empêcher les calmars et autres céphalopodes d'atteindre les sommets de complexité dont ils sont théoriquement capables. Néanmoins, l'édition de l'ARN offre aux céphalopodes un moyen d'essayer de nombreuses versions d'une protéine sans s'enfermer dans une modification permanente de l'ADN, explique M. Rangan.

Ce manque d'engagement laisse perplexe Jianzhi Zhang, généticien évolutionniste à l'université du Michigan à Ann Arbor. "Pour moi, cela n'a pas de sens", déclare-t-il. "Si vous voulez un acide aminé particulier dans une protéine, vous devez modifier l'ADN. Pourquoi changer l'ARN ?

L'édition de l'ARN a-t-elle une valeur évolutive ?

L'édition de l'ARN offre peut-être un avantage évolutif. Pour tester cette idée, Zhang et Daohan Jiang, alors étudiant de troisième cycle, ont comparé les sites "synonymes", où les modifications ne changent pas les acides aminés, aux sites "non synonymes", où le recodage se produit. Étant donné que les modifications synonymes ne modifient pas les acides aminés, les chercheurs ont considéré que ces modifications étaient neutres du point de vue de l'évolution. Chez l'homme, le recodage, ou édition non synonyme, se produit sur moins de sites que l'édition synonyme, et le pourcentage de molécules d'ARN qui sont éditées est plus faible que sur les sites synonymes.

"Si nous supposons que l'édition synonyme est comme un bruit qui se produit dans la cellule, et que l'édition non-synonyme est moins fréquente et [à un] niveau plus bas, cela suggère que l'édition non-synonyme est en fait nuisible", explique Zhang. Même si le recodage chez les céphalopodes est beaucoup plus fréquent que chez les humains, dans la plupart des cas, le recodage n'est pas avantageux, ou adaptatif, pour les céphalopodes, ont affirmé les chercheurs en 2019 dans Nature Communications.

Il existe quelques sites communs où les pieuvres, les calmars et les seiches recodent tous leurs ARN, ont constaté les chercheurs, ce qui suggère que le recodage est utile dans ces cas. Mais il s'agit d'une petite fraction des sites d'édition. Zhang et Jiang ont constaté que quelques autres sites édités chez une espèce de céphalopode, mais pas chez les autres, étaient également adaptatifs.

Si ce n'est pas si utile que cela, pourquoi les céphalopodes ont-ils continué à recoder l'ARN pendant des centaines de millions d'années ? L'édition de l'ARN pourrait persister non pas parce qu'elle est adaptative, mais parce qu'elle crée une dépendance, selon Zhang.

Zhang et Jiang ont proposé un modèle permettant de nuire (c'est-à-dire une situation qui permet des modifications nocives de l'ADN). Imaginez, dit-il, une situation dans laquelle un G (guanine) dans l'ADN d'un organisme est muté en A (adénine). Si cette mutation entraîne un changement d'acide aminé nocif dans une protéine, la sélection naturelle devrait éliminer les individus porteurs de cette mutation. Mais si, par chance, l'organisme dispose d'un système d'édition de l'ARN, l'erreur dans l'ADN peut être corrigée par l'édition de l'ARN, ce qui revient à transformer le A en G. Si la protéine est essentielle à la vie, l'ARN doit être édité à des niveaux élevés de sorte que presque chaque copie soit corrigée.

 Lorsque cela se produit, "on est bloqué dans le système", explique M. Zhang. L'organisme est désormais dépendant de la machinerie d'édition de l'ARN. "On ne peut pas la perdre, car il faut que le A soit réédité en G pour survivre, et l'édition est donc maintenue à des niveaux élevés.... Au début, on n'en avait pas vraiment besoin, mais une fois qu'on l'a eue, on en est devenu dépendant".

Zhang soutient que ce type d'édition est neutre et non adaptatif. Mais d'autres recherches suggèrent que l'édition de l'ARN peut être adaptative.

L'édition de l'ARN peut fonctionner comme une phase de transition, permettant aux organismes de tester le passage de l'adénine à la guanine sans apporter de changement permanent à leur ADN. Au cours de l'évolution, les sites où les adénines sont recodées dans l'ARN d'une espèce de céphalopode sont plus susceptibles que les adénines non éditées d'être remplacées par des guanines dans l'ADN d'une ou de plusieurs espèces apparentées, ont rapporté les chercheurs en 2020 dans PeerJ. Et pour les sites fortement modifiés, l'évolution chez les céphalopodes semble favoriser une transition de A à G dans l'ADN (plutôt qu'à la cytosine ou à la thymine, les deux autres éléments constitutifs de l'ADN). Cela favorise l'idée que l'édition peut être adaptative.

D'autres travaux récents de Rosenthal et de ses collègues, qui ont examiné les remplacements de A en G chez différentes espèces, suggèrent que le fait d'avoir un A modifiable est un avantage évolutif par rapport à un A non modifiable ou à un G câblé.

(Tableau :  Quelle est la fréquence de l'enregistrement de l'ARN ?

Les céphalopodes à corps mou, notamment les pieuvres, les calmars et les seiches, recodent l'ARN dans leur système nerveux sur des dizaines de milliers de sites, contre un millier ou moins chez l'homme, la souris, la mouche des fruits et d'autres espèces animales. Bien que les scientifiques aient documenté le nombre de sites d'édition, ils auront besoin de nouveaux outils pour tester directement l'influence du recodage sur la biologie des céphalopodes.

Schéma avec comparaison des nombre de sites de recodage de l'ARN chez les animaux

J.J.C. ROSENTHAL ET E. EISENBERG/ANNUAL REVIEW OF ANIMAL BIOSCIENCES 2023 )

Beaucoup de questions en suspens

Les preuves pour ou contre la valeur évolutive du recodage de l'ARN proviennent principalement de l'examen de la composition génétique totale, ou génomes, de diverses espèces de céphalopodes. Mais les scientifiques aimeraient vérifier directement si les ARN recodés ont un effet sur la biologie des céphalopodes. Pour ce faire, il faudra utiliser de nouveaux outils et faire preuve de créativité.

Rangan a testé des versions synthétiques de protéines motrices de calmars et a constaté que deux versions modifiées que les calmars fabriquent dans le froid se déplaçaient plus lentement mais plus loin le long de pistes protéiques appelées microtubules que les protéines non modifiées. Mais il s'agit là de conditions artificielles de laboratoire, sur des lames de microscope. Pour comprendre ce qui se passe dans les cellules, Mme Rangan aimerait pouvoir cultiver des cellules de calmar dans des boîtes de laboratoire. Pour l'instant, elle doit prélever des tissus directement sur le calmar et ne peut obtenir que des instantanés de ce qui se passe. Les cellules cultivées en laboratoire pourraient lui permettre de suivre ce qui se passe au fil du temps.

M. Zhang explique qu'il teste son hypothèse de l'innocuité en amenant la levure à s'intéresser à l'édition de l'ARN. La levure de boulanger (Saccharomyces cerevisiae) ne possède pas d'enzymes ADAR. Mais Zhang a modifié une souche de cette levure pour qu'elle soit porteuse d'une version humaine de l'enzyme. Les enzymes ADAR rendent la levure malade et la font croître lentement, explique-t-il. Pour accélérer l'expérience, la souche qu'il utilise a un taux de mutation supérieur à la normale et peut accumuler des mutations G-A. Mais si l'édition de l'ARN peut corriger ces mutations, il est possible d'obtenir des résultats positifs. Mais si l'édition de l'ARN peut corriger ces mutations, la levure porteuse d'ADAR pourrait se développer mieux que celles qui n'ont pas l'enzyme. Et après de nombreuses générations, la levure pourrait devenir dépendante de l'édition, prédit Zhang.

Albertin, Rosenthal et leurs collègues ont mis au point des moyens de modifier les gènes des calmars à l'aide de l'éditeur de gènes CRISPR/Cas9. L'équipe a créé un calmar albinos en utilisant CRISPR/Cas9 pour supprimer, ou désactiver, un gène qui produit des pigments. Les chercheurs pourraient être en mesure de modifier les sites d'édition dans l'ADN ou dans l'ARN et de tester leur fonction, explique Albertin.

Cette science n'en est qu'à ses débuts et l'histoire peut mener à des résultats inattendus. Néanmoins, grâce à l'habileté des céphalopodes en matière d'édition, la lecture de cet article ne manquera pas d'être intéressante.

 

Auteur: Internet

Info: https://www.sciencenews.org/article/octopus-squid-rna-editing-dna-cephalopods, Tina Hesman Saey, 19 may 2023

[ poulpes ] [ calamars ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par miguel

discussion entre quêteurs métaphysiques

Eric Durieux : - Je prends le clavier ce soir pour rédiger un post un peu dérangeant. S'il n'est pas publié par les modérateurs je comprendrai. J'ai cependant besoin de  vous faire part de ma frustration. J’ai presque honte de ce que je vais écrire mais je crois qu’il est possible que ça soit utile.

Voici le problème : depuis ces quelques mois passés dans ce groupe, je me retrouve dans une situation où je suis d’avantage sceptique quant à l’existence et la réalité des shc qu’avant d’entrer dans le groupe. Je trouve la plupart des témoignages très oniriques et irrationnels, reflétant souvent la même incohérence que dans les rêves. Ils suscitent en moi une multitude de questionnements qui me fait de plus en plus douter de ces voyages (je veux dire du caractère simplement non onirique de ceux-ci). Quelques exemples :

1) La corde d’argent. Pourquoi doit elle être épaisse près du corps biologique et ultra fine à une certaine distance, alors qu’elle semble pouvoir s’étirer à l’infini. Ne peut elle pas être d’office fine dès le départ ? Puisque infinie… Ou épaisse tout le temps ? Et pourquoi ne diminue-t-elle pas proportionnellement à la distance de façon régulière si c’est la distance qui l’étire et la fait changer de taille ?

2) Autre point, les constructions et les bâtiments dans les autres mondes, qui semblent parfois défier les lois de la physique. Ok, mais si les lois de la physique sont différentes, pourquoi faire des bâtiments qui ont tout de même l’air de reposer sur une partie de ces lois ? Et pourquoi s’abriter dans des bâtiments si les habitants de ces mondes sont immatériels donc n’ont pas besoin de la protection matérielle des bâtiments.

3) Le côté candide et naïf de certaines situations qui ressemblent presque à des dessins animés. Des rencontres d’archétypes, d’êtres étrangement limités à des rôles prédéfinis comme dans les livres d’enfants.

4) Les projections, qui ont bon dos et permettent d’expliquer un peu n’importe quoi et n’importe quelles incohérences.

5) L’infinité des mondes (ça c’est  "normal") mais l’impossibilité de retourner facilement dans le même monde ou d’y retrouver un autre voyageur comme dans un rendez-vous fixé au préalable.

6) La manipulation des médiums par des êtres énergétiques. Rien ne dit, du coup, que le même phénomène ne se produit pas à un échelon supérieur et que les voyages ne sont pas une manipulation par une catégorie d'êtres encore supérieurs qui sont capables de nous faire croire à la lucidité et aux shc...

Si au final ces voyages ne sont rien de plus que des rêves, avec l’incohérence des rêves, mais de la lucidité en plus, ce ne sont que des rêves ultra lucides et pas de la sortie de corps. D’autant que les sorties dans le monde proche montrent régulièrement des incohérences par rapport au monde tangible biologique (meubles différents, objets à d’autres places). N’est-il pas possible d’au moins pouvoir voyager dans le même plan tel qu’il est exactement dans le corps afin de vérifier les choses rationnellement ?

Ou alors, est-ce que ce qui caractérise notre monde physique est précisément la rationalité et que celle-ci n’existe pas ailleurs ? Auquel cas on aurait LA raison pour laquelle les mondes physiques existent.

J'ai d'autres questionnements du même type mais je m'arrête là, plus le temps passe plus je suis perdu. Il y a pire qu'être quelqu'un qui ne croit pas aux shc parce qu'il ne veut pas y croire (le sceptique de base zététicien), Il y a celui qui comme moi commence à ne plus y croire parce qu'il a tellement envie d'y croire qu'il remarque tout ce qui nourrit sa peur que ce soit du vent.

Marc Auburn : - C'est quelque chose de très commun, et de très logique. Tant qu'on n'experimente pas soi-même, on ne peut être que sur des opinions, des avis, des croyances, des analyses. On ne peut strictement rien comprendre, et on pose des questions à l'infini.

Quelques soient les réponses qui sont fournies par les Voyageurs, elles ne seront pas comprises par beaucoup, et ils le savent. C'est pourquoi l'essentiel des Voyageurs demeurent silencieux. C'est une question récurrente pour moi: à quoi sert une telle page?

Ceux qui savent, qui sont de véritables Voyageurs peuvent échanger entre eux, et sélectionner UNIQUEMENT dans le groupe ces personnes là fut ma première idée, qui par ailleurs me revient régulièrement en tête.

Il y a aussi ceux qui s'interrogent non stop, qui sont parfois des "EXPERTS" du sujet, mais qui n'ont pas la moindre expérience et qui s'enferment dans des idées réductrices, ils ne peuvent pas concevoir que la structure de leur mental est la CAUSE unique de leur absence d'expérience.

Je vais ici dévoiler quelque chose : j'ai observé et compris qu'il existe une catégorie qui a de très faibles chances de Voyager durant la vie biologique, et qui devraient laisser tomber ce sujet: ceux dont le mental réduit à l'impuissance par une sur-activité "rationnelle" qui est en réalité une profonde méconnaissance souvent doublée de nœuds psychologiques bien serrés issus de traumas complexes.

Cette catégorie là constitue moins de 1%, mais elle devrait s'intéresser à autre chose, au moins tant que leur mental est verrouillé aussi fermement.

Quand leur "mort" viendra, ce qu'ils auront lu, entendu leur servira, mais probablement pas avant.

Du point de vue des Voyageurs, ces profils là sont ceux qui posent le plus de questions, qui analysent et déduisent non stop, et dont les réponses qui leurs sont apportées ne leur servent aucunement, par contre elles vont servir AUX AUTRES PROFILS.

Dans ces groupes sociaux, il y a ceux qui sont là pour se distraire, pour rêver. Les sujets leurs paraissent sympa, mais ils ne mettent rien en œuvre pour expérimenter eux-mêmes.

Et puis il y a les autres, ceux qui vont pouvoir vivre le Voyage, par un procédé ou un autre, au terme d'un mois ou de 5 ans, peu importe.

C'est pour ceux-ci que je garde cette page ouverte aux non Voyageurs.

Sinon ce serait une page de vierges qui parleraient sans cesse de sexualité et d'amour sans jamais pratiquer. Une sorte de réunion de loosers...

Néanmoins, pour TOUS les followers sans exception, je SAIS que ce qui est décrit ici servira immanquablement, au moment de la destruction de leur corps biologique, l'auteur de ce post y compris.

Mais bien amicalement, je lui conseille de s'intéresser à autre chose et d'oublier le Voyage pour le restant de son incarnation.

Aucune des réponses à ses incessantes questions ne lui permettra de vivre lui-même la chose, à un moment il faut laisser tomber, comme moi pour le dessin, le piano, le bricolage et un million d'autres trucs.

Borvo Conscience : - Eric Durieux Ton post n'est pas dérangeant, on voit que tu es une personne réfléchie. Seulement, on pressent bien qu'à travers les questionnements, tu cherches à te convaincre, où tu souhaites être rassuré. À un niveau individuel, il n'y a pas d'enjeu majeur, ce n'est pas grave, let go. Si tu ne crois plus, tant mieux, tu vas pouvoir commencer le vrai taff et expérimenter sans te prendre la tête quand tu as envie et comme tu as envie ou pas du tout.

Je te réponds sur les points, mais ça ne sera pas exhaustif. Marc a raison sur le fait que certains traits favorisent la production de sortie hors du corps comme l'absorption, l'imagination, susceptibilité hypnotique et quelques autres qui vont travailler ensemble et permettre à un sujet de :

- Se relaxer vite et bien,

- Calmer ses pensées vite et bien,

-  Avoir une imagination plus puissante (à considérer comme un organe de la conscience)

Si on n'a pas les traits adéquats, cela sera plus difficile, mais pas impossible.

Concernant le rêve et la sortie hors du corps, des études ont quand même été menés quand les neuroscientifiques/psychiatre/psychologue en avait quelque chose à faire.

On a les expériences avec des sujets voyageurs des Dr Twemlow, Tart ou Krippner. Je donne les noms au cas où tu souhaiterais regarder).

En se fondant sur leurs expériences sur des sujets doués, ils ont pu remarquer que l'activité corticale n'était pas la même entre la sortie hors du corps et le rêve.

SHC :

- Activité corticale diversifiée par rapport aux rêves (theta, Delta Alphaloide pour la SHC et principalement Beta et Theta pour le rêve)

- Peut se dérouler à n'importe quel stade du sommeil, même depuis l'éveil.

- Pas de MOR (mouvement oculaire rapide) pendant la SHC

- Processus secondaire (cohérence dans la sensation de réalité) contrairement au rêve (processus primaire)

- Si stimulus extérieur, la shc s'arrête aussitôt, tandis que durant le rêve et le rêve lucide, il y a une intégration du stimulus dans le scénario du rêve/rêve lucide

On a quand même des indices objectifs que la shc et le rêve/rêve lucide sont deux choses différentes. Bon, ça, c'est si on veut rester à raz la pâquerette, l'expérimentation nous donne des données en plus qu'on n'aurait pas autrement.

Enfin, et cela ne concerne que moi. La nature de l'environnement onirique et l'environnement du voyageur est la même. C'est une substance psychique qui réagit à nos pensées et nos émotions. Elle prend la forme d'instance personnelle lors des rêves et se nourrit de nos expériences. Le rêveur lucide restera sous l'empire de cette instance, le voyageur hors du corps accède lui aux réseaux psychiques dans sa globalité. Un réseau qui dans sa nature est une sorte de conscience globale qu'on peut appeler Cosmos ou Akasha. C'est pour cette raison que le rêve et la sortie hors du corps sont par ailleurs proches et très distinctes simultanément.

Je fais avec la numérotation de tes questions pour essayer t'apporter un point de vue. Toutefois, je n'aurai pas les réponses estampillées 100 % pure vérité. On est bien incapable de le faire, mais on ne peut pas non plus nous le reprocher, tu me diras. Mais j'espère que ça t'aidera :

1) Tu sembles penser que la corde d'argent doit obéir à une logique, on peut l'observer et la toucher. On est donc sûr des observations subjectives, on n'a aucune idée de l'anatomie de ce truc s'il y en a une.

Déjà d'autres expérienceurs ne voit pas de corde d'argent, qui nous dit que ce n'est pas une forme pensée, une croyance matérialisée ? Enfin, quand tu prends du caramel chaud et que tu le travailles en l'étirant, tu observes bien que la pâte épaisse s'affine. Analogiquement, cela correspond et on peut que spéculer.

2) Je n'ai jamais eu d'habitation dans la contrepartie éthérique qui défiait les lois de la physique classique personnellement. Concernant les extraphysiques qui ont besoin de bâtiments, je dirai simplement qu'il serait assez naïf de penser que la réalité que nous expérimentons avec ce corps physique soit le seul à être tangible.

3) Idem, si ça sort des expériences du groupe, je ne pourrai pas y répondre. Personnellement, les êtres que j'ai pu rencontrer sont loin d'être limités xD

4) Les projections sont une dynamique importante, pas une explication qu'on invente. C'est un vécu. Comme je le répète souvent, la sortie hors du corps permet d'accéder à un espace psychique qui relit tout le vivant dans un genre d'arrière monde, un espace PSYCHIQUE. Les projections sont juste la conséquence de l'activité d'un organe imaginatif de la conscience qui tend à s'exprimer (peur et désir).

Avec l'expérience, on projette moins. Seulement ce sujet mérite beaucoup de développement pour en expliquer tous les détails, mais de façon concise, oui la projection a un bon dos bien musclé.

5) Les rendez-vous ne sont pas impossibles. Mais, écoutes, il faut des amis déjà ;-).

On ne contrôle pas tous la translocalisation. Généralement, tu vas poser une intention pour un lieu et cela sera l'intention sous-jacente ou inconsciente qui aura la priorité. Il faut rendre visite aux amis à vol d'oiseau si je puis me permettre.

6) Bah non, on peut atteindre des pointes de lucidité qu'on peut à peine concevoir et qui ferait passer ton expérience de la réalité pour une blague onirique. Combien de guides ou de pseudos gars haut dans la hiérarchie céleste, j'ai laissé derrière moi ? Ce que tu nous dis là est plutôt à mettre en rapport avec la personnalité de base du voyageur.

Autant le médium à pas forcément le choix, il capte l'info et c'est tout. Autant un voyageur peut prendre par le col un extraphysique. Cela dépendra vraiment de qui tu es à la base, une personne qui va facilement s'intégrer dans des systèmes (maitre/apprentis dominé/dominant). Ainsi, sans vouloir généraliser, parce qu'on est tous différents, on va vers plus d'indépendance, même si on n'est jamais à l'abri.

Enfin, si on est quand même manipulé comme tu le dis, et alors ?

Dans ce scénario-là, on s'en rendrait pas compte, on fait quoi alors ? On arrête de voyager et de se poser des questions ? On se convertit aux gnosticismes en espérant un jour cassé la gueule au démiurge ?

Pour conclure, si les témoignages t'ont mis dans une détresse intellectuelle par rapport à la SHC, c'est positif. Si tu étais venu gober tout et n'importe quoi, cela aurait été déprimant. Ce qu'il faut retenir c'est qu'un témoignage n'est qu'un témoignage. Le mien n'a pas plus de valeur parce que je serai un voyageur. On vit des choses, on est assez intelligent pour voir qu'il y a une ù^$*ù^ dans le potager et que c'est plus qu'un rêve lucide (principe de comparaison).

Mais, ce sont uniquement des témoignages pouvant servir de base à une réflexion sur la conscience, la réalité et notre rapport à la vie et rien d'autre. Par ailleurs, il est indéniable que certains vont prendre un rêve particulièrement lucide pour une sortie hors du corps sur le groupe, mais ce n'est pas grave.

Je pense que tu serais intéressé par la lecture de Thomas Campbell, c'est un physicien et un voyageur hors du corps. Le fait qu'il soit physicien est une plus-value intéressante également Ervin Laszlo, un philosophe des sciences qui a développé une réflexion sur le champ Akashique comme toile de fond d'un web cosmique. Une toile accessible via diverses expériences comme le rêve, rêve lucide, sortie hors du corps et autres.

J'avais une tasse de café et un peu de temps pour répondre, en espérant que cela ait été utile.

Callirhoé Déicoon : - Merci Eric pour ce post. Je pense que chaque niveau de réalité est un leurre à dépasser car la compréhension progresse et s’affine. Et qu’il faut admettre que quand on est à un niveau A, le niveau B est en dehors de notre compréhension.

“j’ai eu l'illusion de regarder un coucher du soleil, ce qui m'a laissé à penser que l'horizon pourrait être le bout. Mais tout cela n'est qu'illusion, parce que, si l'on progresse dans les niveaux, de nouveaux niveaux apparaissent.”

La zone d’après-vie contiendrait des environnements terrestres créés pour un certain but, du moins c’est comme ça que c’est décrit dans les bouquins de Monroe. Ce n’est en aucun cas la “réalité ultime”. Juste un leurre de plus, fait pour accueillir les décédés. Donc, c’est conforme à leurs habitudes. “to ease their mind”…

Les yogi le disent aussi, qu’il y a une zone très attractive mais que le but n’est pas d’y rester. Qu’il faut aller de l’avant.

Le problème c’est que c’est une zone immense donc on a l’impression qu’il n’y a que ça au-delà de notre plan, or ce n’est pas vrai, des gens ont ramené des témoignages d’une zone d’énergie pure qui se “situe” après une seconde mort mais, c’est si “loin” et difficile d’en ramener des informations qu’il n’y a presque rien à ce sujet.

Je ne parle pas ici d’autres mondes/dimensions que Marc semble parcourir et qu’il est impossible de situer sur la cartographie Monroe. Le problème est bien là d’ailleurs, les voyageurs n’ont pas vraiment les moyens de savoir où ils sont exactement. Je comprends bien le principe des bulles de réalité locales décrit par Marc mais, ça ne m’aide pas à concevoir la big picture. Cependant je pense que c'est très difficile de donner rdv dans un monde X ou Y à quelqu'un qui lui même n'y a pas été d'abord tout seul ! Or il semble qu'on aille à tel ou tel endroit pour des raisons qui nous échappent et qui sont peut-être liées à notre itinéraire personnel... Donc on comprend la difficulté du truc. Des sorties collectives ont été effectuées par des TMI graduates mais, dans des zones connues par eux au préalable et "proches" du plan physique.

En tout cas. Pour ceux qui arrivent à voyager sans charge epsilon… c’est génial et probablement la meilleure expérience de ce qu’on peut avoir en étant incarné. Mais eux aussi ils auront leur propre progression à faire une fois morts. De ce qu’on peut avoir comme réponses d’entités d’autres dimensions, ça semble infini. Moi je m’interroge sur la subjectivité de tout ça. Je ne remets pas en question la réalité de ça mais justement, je me demande si l’univers n’est pas en fait perceptible uniquement de façon subjective. Même si les consciences désincarnées communiquent peut-être sur leurs perceptions individuelles, je me demande si la compréhension progressive de la réalité n’est pas en fait quelque chose de subjectif et intime dans son essence. Et si les différents consensus n’ont une solidité qui n’est en fait que le fruit d’une subjectivité qui s’accorde entre les consciences à tel instant et tel endroit. Et qui dépend aussi du niveau de “densification” (cf consensus relatifs sur la zone d’après-vie, par exemple sur la Library et son emplacement, mais vue avec différentes architectures par les gens : donc on pourrait dire, consensus archétypal avec variantes subjectives sur l’apparence)

Par contre je ne remets pas en question l'existence des projections puisque pour moi c'est tout-à-fait logique notre propre conscience créatrice (et mal entraînée, surtout au début des OBE) mette un peu le dawa mais il y a des techniques pour différencier les projections d'une rencontre avec une autre entité aussi réelle que soi.

Pour ce qui est du plan physique qui semble présenter des différences d’un point de vue out of body, en effet c’est troublant mais ça peut s’expliquer je pense par des caractéristiques de la conscience qui sont encore mal cernées. Ça n’exclut pas la présence d’éléments vérifiables qui permettent donc de faire des reality checks une fois le retour dans le corps effectué. Plein de gens l’ont fait  ;-).

Il y a aussi la vision de son propre corps éthérique par ses yeux physiques qui peut arriver, comme Thomas Moine l’a dit dans son super com et comme Robert Bruce l’a vécu aussi et le raconte dans Astral Dynamics.

Mais, c’est sûr que si tu es venu sur ce groupe en pensant trouver des preuves par A plus B, et des témoignages tous concordants sur les mêmes zones de l’univers mental, etc etc… Tu es forcément déçu et perdu, mais c’est parce que la conscience et les créations qui en sont issus (les univers) ne fonctionnent pas comme notre cerveau physique appréhende les choses.

Je suis d’accord avec Marie-Jeanne, je ne pense pas qu’essayer de comprendre comment fonctionne tout ça aide à faire des expériences, au contraire. Donc dans l’idéal, il faudrait se concentrer sur la pratique. Mais je te comprends car je suis comme toi, j’ai pas pu m’empêcher d’essayer de comprendre de façon intellectuelle, et donc je me suis plongée dans Robert Monroe, et Robert Bruce, entre autres. Hyper intéressant. Mais, la partie qui m’a aidée à sortir n’a pas été le descriptif de comment c’est foutu là-bas, je suppose même que c’était contre-productif puisque j’ai gambergé à mort là-dessus (j’ai même fait un énorme mapping de l’astral sur un schéma). La partie qui m’a aidée a été l’information et les techniques pratico-pratiques que ces 2 auteurs fournissent également en parallèle. Et je pense que quand on se lance dans ce training, il vaut mieux laisser tomber les circonvolutions théoriques. Car on ne pourra pas tout comprendre anyway, la cogitation sera sans fin. Alors que ce qu’on cherche à activer est l’“autre cerveau”.

Auteur: Internet

Info: Fil FB de Marc Auburn, 21 août 2023

[ métempsychose ] [ décorporation ] [ voyage hors du corps ] [ dubitation ]

 

Commentaires: 0

Ajouté à la BD par miguel