Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 326
Temps de recherche: 0.046s

Gaule 2023

Marianne : Comment avez-vous perçu le mouvement social de contestation à la réforme des retraites ?

E.T. :
 Je suis allé en manifestation. Du mouvement de contestation, j'ai constaté la masse, l’énergie, la jeunesse. Je tiens à dire ce que je pense de la responsabilité des uns et des autres concernant le désordre actuel, tout d'abord. Pour moi – je dis bien pour moi – mais ça sera aux juristes de trancher, il est clair qu'en faisant passer une réforme des retraites en loi de finances rectificative et par l'article 49.3, Emmanuel Macron et Élisabeth Borne sont sortis de la Constitution, du moins de l'esprit de la Constitution. Ce sera au Conseil constitutionnel de le dire. Mais il n'est pas certain que j'accepte l'avis du Conseil constitutionnel, s’il valide Macron-Borne.

J'ai vu les commentaires, le soir, sur BFM TV, LCI et d'autres, où l’on parlait de feux de poubelle. Pour moi, 100 % de la responsabilité de ces feux de poubelle incombe au président de la République française et la question de savoir si ce sont plus les black blocks ou les manifestants qui les ont allumés ne m'intéresse pas.

Pourquoi Emmanuel Macron entretiendrait-il ce désordre ?

Ce qui m'étonne le plus, moi, c'est que c'est un désordre qui ne sert à rien. En général, quand on gouverne par le désordre pour faire se lever le parti de l’ordre, c’est qu’on veut consolider un pouvoir fragile, ou bien pour reprendre le pouvoir. Mais Macron avait le pouvoir. La vérité de ce projet de réforme des retraites, en dehors du fait qu’il est injuste et incohérent, c’est qu’il est insignifiant et inutile par rapport aux problèmes réels de la société française.

Il y en a deux : la désindustrialisation et la chute du niveau de vie, liée à l’inflation. La question qui se pose et ce qu’il faut analyser vraiment, c’est la raison de cette mise en désordre de la France par son président, pour rien. Était-ce pour mener à bien un projet néolibéral, appelé "réformateur" ? Ou est-ce que c’est un problème lié à la personnalité de Macron lui-même ?

Commençons par l’hypothèse d’une réforme pensée comme juste par Macron. Vous la jugez néolibérale ?

La réalité du monde occidental, qui entre en guerre, c’est que le néolibéralisme, en tant qu’idéologie économiste active transformant la planète, est en train de mourir parce que ses effets ultimes se révèlent. La mortalité augmente aux États-Unis, et donc, logiquement, l’espérance de vie baisse. Les États-Unis ont perdu leur base industrielle, comme l’Angleterre. Le contexte historique général en ce moment, dans le monde américain, est plutôt aux réflexions sur le retour de l’État entrepreneur.

Macron avait pourtant engagé un tournant néo-protectionniste avec le Covid…

Non ! Je pense que Macron est néolibéral archaïque, et donc en grand état de déficit cognitif. Quand il parle de protectionnisme, il n’est même pas capable de dire s’il s’agit de protectionnisme national ou européen. Mais si tu ne fixes pas d’échelle, tu ne parles de rien. Quand il parle de réindustrialisation, il n’est pas capable de voir que la réindustrialisation implique deux actions simultanées. D’abord, l’investissement direct de l’État dans l’économie. C’est ça qui serait important actuellement, pas la réforme des retraites. Et puis des mesures de protection des secteurs qu’on refonde, par exemple dans les médicaments, dans la fabrication de tel ou tel bien essentiel à la sécurité informatique, alimentaire et énergétique de la France.

C’est d’ailleurs l’une des choses stupéfiantes dans ce débat sur les retraites : les politiques légifèrent – croient-ils – sur des perspectives à long terme d’équilibre. Ils spéculent sur des années de travail qui vont couvrir des décennies pour la plupart des gens, sans se poser la question de ce qui restera, non pas comme argent, comme signes monétaires, mais comme bien réels produits pour servir ces retraites en 2050 ou 2070.

Les retraites sont menacées, c’est vrai, mais par la désindustrialisation. Quel que soit le système comptable, si la France ne produit plus rien le niveau des retraites réelles de tout le monde va baisser. En dehors du fait qu'il a déjà commencé à baisser avec l'inflation.

Notre élite économique fait, selon vous, une fois de plus fausse route.

Notre président et les gens autour de lui, une sorte de pseudo-intelligentsia economico-politique, sont hors du monde. À une époque, on savait que pour faire la guerre, il fallait des biens industriels, des ingénieurs, des ouvriers. On redécouvre aujourd’hui à Washington et à Londres que tout ça n’existe plus assez ! Les faucons néoconservateurs croyaient qu’on pouvait faire la guerre à la Russie avec des soldats ukrainiens et à la Chine en prime, grâce au travail d’ouvriers… chinois ! La réalité du néolibéralisme, c'est qu’il a tout détruit au cœur même de son Empire. Le vrai nom du néolibéralisme, c'est "nihilisme économique". Je me souviens de phrases prophétiques de Margaret Thatcher disant "There is no such thing as society ", ou "There is no alternative" (TINA). Ces idioties ne sortent pas du libéralisme britannique, de John Locke ou d'Adam Smith, mais bien plutôt du nihilisme russe du XIXe siècle.

Cette réforme des retraites à contretemps est guidée par un phénomène d'inertie, au nom d’une idéologie qui est en train de mourir. Le discours néolibéral est un discours de la rationalité économique, un discours de la rationalité des marchés qui va permettre de produire, en théorie, plus d'efficacité. Je vais vous dire l’état de mes recherches sur le nihilisme néolibéral : cette passion de détruire les cadres de sécurité établis au cours des siècles par les religions, les États et les partis de gauche. Le nihilisme néolibéral détruit la fécondité du monde avancé, la possibilité même d’un futur. Et vous allez être fier de cette France dont les néolibéraux rient.

Vous faites partie de ceux qui voient dans les indices de fécondité l'avenir de l'Occident…

La vérité historique fondamentale actuelle, c’est que la rationalité individualiste pure détruit la capacité des populations à se reproduire et des sociétés à survivre. Pour faire des enfants, particulièrement dans les classes moyennes qui veulent pour eux des études longues, il faut l’aide de la collectivité, il faut se projeter dans un avenir qui ne peut apparaître suffisamment sûr que grâce à l’État. Il faut donc sortir de la rationalité économique à court terme. Sans oublier que décider d’avoir un enfant, ce n’est être ni rationnel, ni parfois même raisonnable, mais vivant. Je sais qu'il y a des gens qui s'inquiètent de l'augmentation de la population mondiale, mais moi, je suis inquiet de la sous-fécondité de toutes les régions "avancées". Même les États-Unis, même l'Angleterre, sont tombés à 1,6 enfant par femme. L’Allemagne est à 1,5, le Japon est à 1,3. La Corée, chouchou des majorettes intellectuelles du succès économique, le pays de Samsung et d'une globalisation économique assumée, est à 0,8. … Le plus efficace économiquement est le plus suicidaire.

C'est là que la France redevient vraiment intéressante. Elle a deux caractéristiques. C'est d’abord le pays qui fait le moins bien ses "réformes", qui refuse le plus le discours de la rationalité économique. Dont l'État n'est jamais dégrossi comme le rêvent les idéologues du marché. Mais c'est aussi le seul pays avancé qui garde une fécondité de 1,8. C'est le pays qui, en ne voulant pas toutes ces réformes, a refusé la destruction de certaines des structures de protection des individus et des familles qui permettent aux gens de se projeter dans le futur et d'avoir des enfants. Une retraite jeune, ce sont aussi des grands-pères et des grands-mères utilisables pour des gardes d’enfants ! Désolé d’apparaître en être humain plutôt qu’en économiste ! La grandeur de la France, c'est son refus de la rationalité économique, son refus de la réforme. Ce qui fait de la France un pays génial, c'est son irrationalité économique. On saura si Macron a réussi s'il arrive à faire baisser la natalité française au niveau anglo-américain, au-delà de son cas personnel de non-reproduction.

Comment ce dernier peut-il alors imposer une telle réforme si c'est contre l'intérêt du pays ?

Pourquoi un président de la République en si grand état de déficit cognitif peut-il imposer cette réforme injuste, inutile et incohérente par un coup de force institutionnel ou même un coup d’État ? Parce qu’il agit dans un système sociopolitique détraqué que je qualifierais même de pathologique. Il y avait une organisation de la République qui reposait sur une opposition de la droite et de la gauche, permise par un mode de scrutin adapté : le scrutin uninominal majoritaire à deux tours. Il faisait qu’au premier tour, on choisissait son parti de droite préféré, son parti de gauche préféré. Au deuxième tour, les deux camps se regroupaient et on avait une très belle élection.

Tout a été dévasté par la nouvelle stratification éducative de la France. La montée de l’éducation supérieure a produit une première division en deux de la société entre les gens qui ont fait des études et ceux qui n’en ont pas fait. C’est le modèle qui s’impose partout dans le monde développé. Mais il y a une autre dimension qui, il faut l’avouer, n’a pas grand-chose à voir : le vieillissement de la population et l’apparition d’une masse électorale âgée, qui établissent un troisième pôle, les vieux, dont je suis. Cette société stratifiée et vieillie a accouché de trois pôles politiques qui structurent le système. Je simplifie jusqu’à la caricature : 1) les éduqués supérieurs mal payés, plutôt jeunes ou actifs, se sont dirigés vers Mélenchon ou la Nupes ; 2) les moins éduqués mal payés, plutôt jeunes et actifs, vers le RN ; 3) les vieux, derrière Macron.

Ils sont les seuls à soutenir la réforme des retraites, d’ailleurs…

Ce système est dysfonctionnel, "détraqué", à cause de l’opposition viscérale entre les électorats contestataires de gauche et de droite, Nupes et RN. Ces deux électorats ont en commun leur niveau de vie, leur structure d’âge, mais sont séparés par l’éducation et par la question de la nation et de l’immigration. Cette fracture conduit à une incapacité des uns et des autres à se considérer comme mutuellement légitimes. Leur opposition permet à Macron et aux vieux de régner. Les retraités peuvent donc imposer une réforme des retraites qui ne les touche pas. Le problème, c’est qu’une démocratie ne peut fonctionner que si les gens opposés se considèrent comme certes différents, mais mutuellement légitimes.

La France vire-t-elle à la gérontocratie ?

On a enfermé les jeunes pour sauver les gens de ma génération. Comment la démocratie est-elle possible avec un corps électoral qui vieillit sans cesse ? Mais dénoncer un système gérontocratique ne suffit pas, d’un point de vue anthropologique en tout cas. Ce qu’il faut dénoncer, c’est une société qui ne peut survivre. Une société humaine ne peut pas se projeter dans l’avenir si on part du principe que les ressources doivent remonter vers les vieux plutôt que descendre vers les jeunes.

La question institutionnelle fondamentale, ce n’est pas tant le pouvoir disproportionné du président dans la conception de la Ve République, mais un système électoral inadapté dans un contexte où les deux forces d’opposition refusent d’exister l’une pour l’autre. Il y a deux solutions : la première est le passage au mode de scrutin proportionnel. Mais cela ne se produira pas car la gérontocratie en place a trop intérêt à ce que le système dysfonctionne. L’autre solution, c’est de trouver une voie politique qui permette le sauvetage de la démocratie : je propose un contrat à durée limitée réconciliant les électorats du Rassemblement national et de la Nupes pour établir le scrutin proportionnel.

Mais comment les réconcilier ?

Je considère vraiment que ce qui se passe est inquiétant. J’ai un peu de mal à imaginer que cela ne se termine pas mal. Il y a un élément d’urgence, et la simple menace de désistement implicite ou explicite entre les deux forces d’opposition calmerait beaucoup le jeu. Il ferait tomber le sentiment d’impunité de la bureaucratie qui nous gouverne.

Le problème fondamental n’est pas un problème entre appareils. Le problème fondamental est un problème de rejet pluriel. 1) L’électorat du Rassemblement national est installé dans son rejet de l’immigration, un concept qui mélange l’immigration réelle qui passe aujourd’hui la frontière et la descendance de l’immigration ancienne, les gosses d’origine maghrébine qui sont maintenant une fraction substantielle de la population française. 2) L’électorat de LFI et de la Nupes croit seulement exprimer un refus du racisme du RN mais il exprime aussi, à l’insu de son plein gré, un rejet culturel de l’électorat du RN. Il vit un désir à la Bourdieu de distinction. Simplifions, soyons brutal, il s’agit de sauver la République : il y a d’un côté une xénophobie ethnique et de l’autre une xénophobie sociale.

J’ai un peu de mal à imaginer que le sauvetage à court terme de la démocratie par l’établissement de la proportionnelle, via un accord à durée limitée entre Nupes et RN, puisse se passer d’un minimum de négociation sur la question du rapport à l’étranger. La seule négociation possible, la seule chose raisonnable d’ailleurs du point de vue de l’avenir du pays, c’est que les électeurs de la Nupes admettent que le contrôle des frontières est absolument légitime et que les gens du Rassemblement national admettent que les gens d’origine maghrébine en France sont des Français comme les autres. Sur cette base, à la fois très précise et qui admet du flou, on peut s’entendre.

Le contexte actuel reproduit-il celui de l’époque des Gilets jaunes ?

"La police tape pour Macron, mais vote pour Le Pen", disais-je en 2018 au moment des Gilets jaunes… Je m’inquiétais de la possibilité d’une collusion entre les forces de ce que j’appelais à l’époque l’aristocratie stato-financière et l’autoritarisme implicitement associé à la notion d’extrême droite. J’avançais le concept de macrolepénisme. Le Rassemblement national aujourd’hui est confronté à une ambivalence qu’il doit lever. Le contexte actuel reproduit le contexte de l’époque des Gilets jaunes, en effet : d’un côté le Rassemblement national passe des motions de censure contre la politique gouvernementale sur les retraites (et je trouve tout à fait immoral que LFI refuse de voter les motions du Rassemblement national sur ces questions), mais, d’un autre côté, c’est, comme d’habitude, la police qui cogne sur les manifestants, qui est utilisée par Macron, qui continue de voter à plus de 50 % pour le Rassemblement national ! J’ajoute que le choix par Marine Le Pen de l’opposition à la grève des éboueurs n’est pas de bon augure.

Le Rassemblement national ne peut pas rester dans cette ambiguïté : il suffirait d’un petit mot de modération de Marine Le Pen pour que le comportement de la police change. Ce que je dis est grave : en mode démocratique normal, une police doit obéir au ministre de l’Intérieur. Mais je ne vois pas pourquoi une police appliquerait aveuglément les consignes de violence d’un président qui est sorti de la Constitution. Nous avons besoin d’une réflexion approfondie des juristes. Il s’agit de protéger les institutions dans un contexte extrêmement bizarre. Le conflit entre jeunes manifestants et jeunes policiers nous ramène d’ailleurs à la question du rejet mutuel Nupes/RN. L’hostilité qu’encourage le gouvernement entre la police et les jeunes manifestants est une menace pour l’équilibre du pays. On ne peut pas vivre dans un pays avec deux jeunesses qui se tapent dessus. Il y a dans le style policier violent Macron-Borne-Darmanin quelque chose de pensé et de pervers.

Vous dites que la première raison de l’obstination du gouvernement pourrait venir de l’esprit de Macron directement…

J’ai parlé de système électoral, j’ai parlé de néolibéralisme. J’ai parlé du déficit cognitif néolibéral de Macron. Une autre chose doit être évoquée, non systémique, accidentelle, dont je n’aime pas parler mais dont on doit parler : une autre raison de la préférence de Macron pour le désordre et la violence est sans doute un problème de personnalité, un problème psychologique grave. Son rapport au réel n’est pas clair. On lui reproche de mépriser les gens ordinaires. Je le soupçonne de haïr les gens normaux. Son rapport à son enfance n’est pas clair. Parfois, il me fait penser à ces enfants excités qui cherchent la limite, qui attendent d’un adulte qu’il les arrête. Ce qui serait bien, ce serait que le peuple français devienne adulte et arrête l’enfant Macron.

La situation est extrêmement dangereuse parce que nous avons peut-être un président hors contrôle dans un système sociopolitique qui est devenu pathologique. Au-delà de toutes les théories, sophistiquées ou non, j’en appelle à tous les gens pacifiques, moraux et raisonnables, quel que soit leur niveau éducatif, leur richesse, leur âge, à tous les députés quel que soit leur parti, Renaissance compris, j’en appelle au Medef, aux pauvres, aux inspecteurs des finances, aux vieillards et aux oligarques de bonne volonté, pour qu’ils se donnent la main et remettent ce président sous contrôle. La France vaut mieux que ce bordel. 



 

Auteur: Todd Emmanuel

Info: Marianne.net, 5 mars 2023, Interview Par Etienne Campion

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

transgressions verbales

Avant même de parler, nous jurions.

Furieux de ce qu'il considère comme une pandémie virtuelle de vulgarité verbale émanant de personnalités aussi diverses que Howard Stern, Bono de U2 et Robert Novak, le Sénat des États-Unis est sur le point d'examiner un projet de loi qui augmenterait fortement les sanctions pour obscénité à l'antenne.

En multipliant par quinze les amendes qui seraient infligées aux radiodiffuseurs contrevenants, pour atteindre un montant d'environ 500 000 dollars par diffusion de grossièretés, et en menaçant de révoquer les licences des contrevenants récidivistes, le Sénat cherche à redonner à la place publique la teneur plus douce d'antan, lorsque l'on entendait rarement des propos calomnieux et que les célébrités n'étaient pas grossières à longueur de journée.

Pourtant, les chercheurs qui étudient l'évolution du langage et la psychologie des jurons disent qu'ils n'ont aucune idée du modèle mystique de gentillesse linguistique que les critiques pourraient avoir en tête. Le juron, disent-ils, est un universel humain. Toutes les langues, tous les dialectes et tous les patois étudiés, vivants ou morts, parlés par des millions de personnes ou par une petite tribu, ont leur part d'interdits, une variante de la célèbre liste des sept gros mots qui ne doivent pas être prononcés à la radio ou à la télévision, établie par le comédien George Carlin.

Les jeunes enfants mémorisent cet inventaire illicite bien avant d'en saisir le sens, explique John McWhorter, spécialiste de la linguistique au Manhattan Institute et auteur de "The Power of Babel", et les géants de la littérature ont toujours construit leur art sur sa colonne vertébrale.

"Le dramaturge jacobéen Ben Jonson a parsemé ses pièces de fackings et de "Culs peremptoirs", et Shakespeare ne pouvait guère écrire une strophe sans insérer des blasphèmes de l'époque comme "zounds" ou "sblood" - contractions offensantes de "God's wounds" et "God's blood" - ou autre étonnant  jeu de mots sexuel.

Le titre "Much Ado About Nothing", dit son auteur le Dr McWhorter, est un jeu de mots sur "Much Ado About an O Thing", le O thing étant une référence aux organes génitaux féminins.

Même la quintessence du bon livre abonde en passages coquins comme les hommes de II Kings 18:27 qui, comme le dit la traduction relativement douce du King James, "mangent leur propre merde et boivent leur propre pisse".

En fait, selon Guy Deutscher, linguiste à l'université de Leyde, aux Pays-Bas, et auteur de "The Unfolding of Language : An Evolutionary Tour of Mankind's Greatest Invention", les premiers écrits, qui datent d'il y a 5 000 ans, comportent leur lot de descriptions colorées de la forme humaine et de ses fonctions encore plus colorées. Et les écrits ne sont que le reflet d'une tradition orale qui, selon le Dr Deutscher et de nombreux autres psychologues et linguistes évolutionnistes, remonte à l'apparition du larynx humain, si ce n'est avant.

Certains chercheurs sont tellement impressionnés par la profondeur et la puissance du langage grossier qu'ils l'utilisent comme un judas dans l'architecture du cerveau, comme un moyen de sonder les liens enchevêtrés et cryptiques entre les nouvelles régions "supérieures" du cerveau chargées de l'intellect, de la raison et de la planification, et les quartiers neuronaux plus anciens et plus "bestiaux" qui donnent naissance à nos émotions.

Les chercheurs soulignent que le fait de jurer est souvent un amalgame de sentiments bruts et spontanés et de ruse ciblée, à la dérobée. Lorsqu'une personne en insulte une autre, disent-ils, elle crache rarement des obscénités et des insultes au hasard, mais évalue plutôt l'objet de son courroux et adapte le contenu de son explosion "incontrôlable" en conséquence.

Étant donné que l'injure fait appel aux voies de la pensée et des sentiments du cerveau dans une mesure à peu près égale et avec une ferveur facilement évaluable, les scientifiques affirment qu'en étudiant les circuits neuronaux qui la sous-tendent, ils obtiennent de nouvelles informations sur la façon dont les différents domaines du cerveau communiquent - et tout cela pour une réplique bien sentie.

D'autres chercheurs se sont penchés sur la physiologie de l'injure, sur la façon dont nos sens et nos réflexes réagissent à l'audition ou à la vue d'un mot obscène. Ils ont déterminé que le fait d'entendre un juron suscite une réaction littérale chez les gens. Lorsque des fils électrodermiques sont placés sur les bras et le bout des doigts d'une personne pour étudier les schémas de conductivité de sa peau et que les sujets entendent ensuite quelques obscénités prononcées clairement et fermement, les participants montrent des signes d'excitation instantanée. La conductivité de leur peau augmente, les poils de leurs bras se dressent, leur pouls s'accélère et leur respiration devient superficielle.

Il est intéressant de noter, selon Kate Burridge, professeur de linguistique à l'université Monash de Melbourne, en Australie, qu'une réaction similaire se produit chez les étudiants universitaires et d'autres personnes qui se targuent d'être instruites lorsqu'elles entendent des expressions de mauvaise grammaire ou d'argot qu'elles considèrent comme irritantes, illettrées ou déclassées.

"Les gens peuvent se sentir très passionnés par la langue, dit-elle, comme s'il s'agissait d'un artefact précieux qu'il faut protéger à tout prix contre les dépravations des barbares et des étrangers lexicaux." 

Le Dr Burridge et un collègue de Monash, Keith Allan, sont les auteurs de "Forbidden Words : Taboo and the Censoring of Language", qui sera publié au début de l'année prochaine par la Cambridge University Press.

Les chercheurs ont également découvert que les obscénités peuvent s'insinuer dans la peau d'une personne qui a la chair de poule, puis ne plus bouger. Dans une étude, les scientifiques ont commencé par le célèbre test de Stroop, qui consiste à montrer à des sujets une série de mots écrits en différentes couleurs et à leur demander de réagir en citant les couleurs des mots plutôt que les mots eux-mêmes.

Si les sujets voient le mot "chaise" écrit en lettres jaunes, ils sont censés dire "jaune".

Les chercheurs ont ensuite inséré un certain nombre d'obscénités et de vulgarités dans la gamme standard. En observant les réponses immédiates et différées des participants, les chercheurs ont constaté que, tout d'abord, les gens avaient besoin de beaucoup plus de temps pour triller les couleurs des mots d'injures que pour des termes neutres comme "chaise".

L'expérience de voir un texte titillant détournait manifestement les participants de la tâche de codage des couleurs. Pourtant, ces interpolations osées ont laissé des traces. Lors de tests de mémoire ultérieurs, les participants ont non seulement été beaucoup plus aptes à se souvenir des vilains mots que des mots neutres, mais cette supériorité s'appliquait également aux teintes des mots vilains, ainsi qu'à leur sens.

Oui, il est difficile de travailler dans la pénombre des ordures idiomatiques. Dans le cadre d'une autre étude, des chercheurs ont demandé à des participants de parcourir rapidement des listes de mots contenant des obscénités, puis de se souvenir du plus grand nombre possible de ces mots. Là encore, les sujets se sont montrés plus aptes à se remémorer les injures, et moins aptes à se souvenir de tout ce qui était acceptable et qui précédait ou suivait les injures.

Pourtant, si le langage grossier peut donner un coup de fouet, il peut aussi aider à évacuer le stress et la colère. Dans certains contextes, la libre circulation d'un langage grossier peut signaler non pas l'hostilité ou une pathologie sociale, mais l'harmonie et la tranquillité.

"Des études montrent que si vous êtes avec un groupe d'amis proches, plus vous êtes détendu, plus vous jurez", a déclaré le Dr Burridge. "C'est une façon de dire : 'Je suis tellement à l'aise ici que je peux me défouler. Je peux dire ce que je veux".

Il est également prouvé que les jurons peuvent être un moyen efficace d'évacuer l'agressivité et de prévenir ainsi la violence physique.

Avec l'aide d'une petite armée d'étudiants et de volontaires, Timothy B. Jay, professeur de psychologie au Massachusetts College of Liberal Arts à North Adams et auteur de "Cursing in America" et "Why We Curse", a exploré en détail la dynamique du juron.

Les enquêteurs ont découvert, entre autres, que les hommes jurent généralement plus que les femmes, à moins que ces dernières ne fassent partie d'une sororité, et que les doyens d'université jurent plus que les bibliothécaires ou les membres du personnel de la garderie universitaire.

Selon le Dr Jay, peu importe qui jure ou quelle est la provocation, la raison de l'éruption est souvent la même.

"À maintes reprises, les gens m'ont dit que le fait de jurer était pour eux un mécanisme d'adaptation, une façon de réduire le stress", a-t-il déclaré lors d'un entretien téléphonique. "C'est une forme de gestion de la colère qui est souvent sous-estimée".

En effet, les chimpanzés se livrent à ce qui semble être une sorte de match de jurons pour évacuer leur agressivité et éviter un affrontement physique potentiellement dangereux.

Frans de Waal, professeur de comportement des primates à l'université Emory d'Atlanta, a déclaré que lorsque les chimpanzés sont en colère, "ils grognent, crachent ou font un geste brusque et ascendant qui, si un humain le faisait, serait reconnu comme agressif".

Ces comportements sont des gestes de menace, a déclaré le professeur de Waal, et ils sont tous de bon augure.

"Un chimpanzé qui se prépare vraiment à se battre ne perd pas de temps avec des gestes, mais va tout simplement de l'avant et attaque". De la même manière, a-t-il ajouté, rien n'est plus mortel qu'une personne trop enragée pour utiliser des jurons, qui prend une arme à feu et commence à tirer sans bruit.

Les chercheurs ont également examiné comment les mots atteignent le statut de discours interdit et comment l'évolution du langage grossier affecte les couches plus lisses du discours civil empilées au-dessus. Ils ont découvert que ce qui est considéré comme un langage tabou dans une culture donnée est souvent un miroir des peurs et des fixations de cette culture.

"Dans certaines cultures, les jurons sont principalement liés au sexe et aux fonctions corporelles, tandis que dans d'autres, ils sont principalement liés au domaine de la religion", a déclaré le Dr Deutscher.

Dans les sociétés où la pureté et l'honneur des femmes sont d'une importance capitale, "il n'est pas surprenant que de nombreux jurons soient des variations sur le thème "fils de pute" ou fassent référence de manière imagée aux organes génitaux de la mère ou des sœurs de la personne concernée".

Le concept même de juron ou de serment trouve son origine dans la profonde importance que les cultures anciennes accordaient au fait de jurer au nom d'un ou de plusieurs dieux. Dans l'ancienne Babylone, jurer au nom d'un dieu était censé donner une certitude absolue contre le mensonge, a déclaré le Dr Deutscher, "et les gens croyaient que jurer faussement contre un dieu attirerait sur eux la terrible colère de ce dieu." La mise en garde contre tout abus du serment sacré se reflète dans le commandement biblique selon lequel il ne faut pas "prendre le nom du Seigneur en vain", et aujourd'hui encore, les témoins dans les tribunaux jurent sur la Bible qu'ils disent toute la vérité et rien que la vérité.

Chez les chrétiens, cette interdiction de prendre le nom du Seigneur en vain s'étendait à toute allusion désinvolte envers le fils de Dieu ou à ses souffrances corporelles - aucune mention du sang, des plaies ou du corps, et cela vaut aussi pour les savantes contractions. De nos jours, l'expression "Oh, golly !" peut être considérée comme presque comiquement saine, mais il n'en a pas toujours été ainsi. "Golly" est une compaction de "corps de Dieu" et, par conséquent, était autrefois un blasphème.

Pourtant, ni les commandements bibliques, ni la censure victorienne la plus zélée ne peuvent faire oublier à l'esprit humain son tourment pour son corps indiscipliné, ses besoins chroniques et embarrassants et sa triste déchéance. L'inconfort des fonctions corporelles ne dort jamais, a déclaré le Dr Burridge, et le besoin d'une sélection toujours renouvelée d'euphémismes sur des sujets sales a longtemps servi de moteur impressionnant à l'invention linguistique.

Lorsqu'un mot devient trop étroitement associé à une fonction corporelle spécifique, dit-elle, lorsqu'il devient trop évocateur de ce qui ne devrait pas être évoqué, il commence à entrer dans le domaine du tabou et doit être remplacé par un nouvel euphémisme plus délicat.

Par exemple, le mot "toilette" vient du mot français "petite serviette" et était à l'origine une manière agréablement indirecte de désigner l'endroit où se trouve le pot de chambre ou son équivalent. Mais depuis, le mot "toilettes" désigne le meuble en porcelaine lui-même, et son emploi est trop brutal pour être utilisé en compagnie polie. Au lieu de cela, vous demanderez à votre serveur en smoking de vous indiquer les toilettes pour dames ou les toilettes ou, si vous le devez, la salle de bains.

De même, le mot "cercueil" (coffin) désignait à l'origine une boîte ordinaire, mais une fois qu'il a été associé à la mort, c'en fut fini du "cercueil à chaussures" ou de la "pensée hors du cercueil". Selon le Dr Burridge, le sens tabou d'un mot "chasse toujours les autres sens qu'il aurait pu avoir".

Les scientifiques ont récemment cherché à cartographier la topographie neuronale du discours interdit en étudiant les patients atteints du syndrome de Tourette qui souffrent de coprolalie, l'envie pathologique et incontrôlable de jurer. Le syndrome de Gilles de la Tourette est un trouble neurologique d'origine inconnue qui se caractérise principalement par des tics moteurs et vocaux chroniques, une grimace constante ou le fait de remonter ses lunettes sur l'arête du nez, ou encore l'émission d'un flot de petits glapissements ou de grognements.

Seul un faible pourcentage des patients atteints de la maladie de Gilles de la Tourette sont atteints de coprolalie - les estimations varient de 8 à 30 % - et les patients sont consternés par les représentations populaires de la maladie de Gilles de la Tourette comme une affection humoristique et invariablement scatologique. Mais pour ceux qui souffrent de coprolalie, dit le Dr Carlos Singer, directeur de la division des troubles du mouvement à la faculté de médecine de l'université de Miami, ce symptôme est souvent l'aspect le plus dévastateur et le plus humiliant de leur maladie.

Non seulement il peut être choquant pour les gens d'entendre une volée de jurons jaillir sans raison apparente, parfois de la bouche d'un enfant ou d'un jeune adolescent, mais les jurons peuvent aussi être provocants et personnels, des insultes fleuries contre la race, l'identité sexuelle ou la taille d'un passant, par exemple, ou des références obscènes délibérées et répétées au sujet d'un ancien amant dans les bras d'un partenaire ou d'un conjoint actuel.

Dans un rapport publié dans The Archives of General Psychiatry, le Dr David A. Silbersweig, directeur du service de neuropsychiatrie et de neuro-imagerie du Weill Medical College de l'université Cornell, et ses collègues ont décrit leur utilisation de la TEP pour mesurer le débit sanguin cérébral et identifier les régions du cerveau qui sont galvanisées chez les patients atteints de la maladie de Tourette pendant les épisodes de tics et de coprolalie. Ils ont constaté une forte activation des ganglions de la base, un quatuor de groupes de neurones situés dans le cerveau antérieur, à peu près au niveau du milieu du front, connus pour aider à coordonner les mouvements du corps, ainsi qu'une activation des régions cruciales du cerveau antérieur arrière gauche qui participent à la compréhension et à la production du langage, notamment l'aire de Broca.

Les chercheurs ont également constaté l'activation de circuits neuronaux qui interagissent avec le système limbique, le trône des émotions humaines en forme de berceau, et, de manière significative, avec les domaines "exécutifs" du cerveau, où les décisions d'agir ou de s'abstenir d'agir peuvent être prises : la source neuronale, selon les scientifiques, de la conscience, de la civilité ou du libre arbitre dont les humains peuvent se prévaloir.

Selon le Dr Silbersweig, le fait que le superviseur exécutif du cerveau s'embrase lors d'une crise de coprolalie montre à quel point le besoin de dire l'indicible peut être un acte complexe, et pas seulement dans le cas du syndrome de Tourette. La personne est saisie d'un désir de maudire, de dire quelque chose de tout à fait inapproprié. Les circuits linguistiques d'ordre supérieur sont sollicités pour élaborer le contenu de la malédiction. Le centre de contrôle des impulsions du cerveau s'efforce de court-circuiter la collusion entre l'envie du système limbique et le cerveau néocortical, et il peut y parvenir pendant un certain temps. 

Mais l'envie monte, jusqu'à ce que les voies de la parole se déchaînent, que le verboten soit prononcé, et que les cerveaux archaïques et raffinés en portent la responsabilité.

Auteur: Angier Natalie

Info: The New York Times, 20 septembre 2005

[ vocables pulsions ] [ onomasiologie ] [ tiercités réflexes ] [ jargon reptilien ] [ verbe soupape ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

résonances organiques

Les avantages sociaux de la synchronisation de notre cerveau

Nos ondes cérébrales peuvent s'aligner lorsque nous travaillons et jouons en étroite collaboration. Le phénomène, connu sous le nom de synchronisation inter-cerveau, suggère que la collaboration est biologique.

(Photo : De plus en plus de recherches montrent comment l’activité neuronale peut se synchroniser entre plusieurs personnes, ce qui entraîne de meilleurs résultats sociaux et créatifs.)

Le célèbre duo de pianos polonais Marek et Wacek n'utilisait pas de partitions lors de ses concerts live. Et pourtant, sur scène, le duo semblait parfaitement synchronisé. Sur des pianos adjacents, ils reprenaient de manière ludique divers thèmes musicaux, mêlé musique classique et jazz et improvisé en temps réel. "Nous avons suivi le courant", a déclaré Marek Tomaszewski, qui a joué avec Wacek Kisielewski jusqu'à la mort de Wacek en 1986. "C'était un pur plaisir."

Les pianistes semblaient lire dans les pensées des autres en échangeant des regards. C’était, dit Marek, comme s’ils étaient sur la même longueur d’onde. Un nombre croissant de recherches suggèrent que cela aurait pu être littéralement vrai.

Des dizaines d'expériences récentes étudiant l'activité cérébrale de personnes qui se produisent et travaillent ensemble – pianistes en duo, joueurs de cartes, enseignants et étudiants, puzzleurs et autres – montrent que leurs ondes cérébrales peuvent s'aligner dans un phénomène connu sous le nom de synchronisation neuronale interpersonnelle, également connue sous le nom de synchronie inter-cerveau.

"De nombreuses recherches montrent désormais que les personnes qui interagissent ensemble présentent des activités neuronales coordonnées", a déclaré Giacomo Novembre, neuroscientifique cognitif à l'Institut italien de technologie de Rome, qui a publié l'été dernier un article clé sur ce sujet. Les études se sont multipliées au cours des dernières années – notamment la semaine dernière – au fur et à mesure que de nouveaux outils et des techniques améliorées ont affiné la science et la théorie.

Ils montrent que la synchronisation entre les cerveaux présente des avantages. Qui conduit à une meilleure résolution de problèmes, à un meilleur apprentissage et à une meilleure coopération, et même à des comportements qui aident les autres à leur dépens. De plus, des études récentes dans lesquelles les cerveaux ont été stimulés par un courant électrique suggèrent que la synchronisation elle-même pourrait entraîner l'amélioration des performances observée par les scientifiques.

" La cognition est quelque chose qui se produit non seulement dans le crâne, mais aussi en relation avec l'environnement et avec les autres ", a déclaré Guillaume Dumas, professeur de psychiatrie computationnelle à l'Université de Montréal. Comprendre quand et comment nos cerveaux se synchronisent pourrait nous aider à communiquer plus efficacement, à concevoir de meilleures salles de classe et à aider les équipes à coopérer.

Se synchroniser


Les humains, comme les autres animaux sociaux, ont tendance à synchroniser leurs comportements. Si vous marchez à côté de quelqu’un, vous commencerez probablement à marcher au pas. Si deux personnes s’assoient côte à côte dans des fauteuils à bascule, il y a de fortes chances qu’elles commencent à se balancer au même rythme.

Une telle synchronisation comportementale, selon les recherches, nous rend plus confiants, nous aide à créer des liens et stimule nos instincts sociaux. Dans une étude, danser de manière synchronisée permettait aux participants de se sentir émotionnellement proches les uns des autres – bien plus que pour les groupes qui se déplaçaient de manière asynchrone. Dans une autre étude, les participants qui scandaient des mots de manière rythmée étaient plus susceptibles de coopérer à un jeu d'investissement. Même une simple marche à l'unisson avec une personne issue d'une minorité ethnique peut réduire les préjugés.

" La coordination est une caractéristique de l’interaction sociale. C'est vraiment crucial " a déclaré Novembre. "Lorsque la coordination est altérée, l'interaction sociale est profondément altérée."

Lorsque nos mouvements se coordonnent, une myriade de synchronisations invisibles à l’œil nu se produisent également à l’intérieur de notre corps. Quand les gens tambourinent ensemble, leurs cœurs battent ensemble. Les fréquences cardiaques des thérapeutes et de leurs patients peuvent se synchroniser pendant les séances (surtout si la relation thérapeutique fonctionne bien), tout comme celles des couples mariés. D’autres processus physiologiques, tels que notre rythme respiratoire et nos niveaux de conductance cutanée, peuvent également correspondre à ceux d’autres personnes.

(Photo : Ce n’est qu’au cours des 20 dernières années qu’est apparue une technologie permettant aux neuroscientifiques d’étudier la synchronisation inter-cerveau. L'hyperscanning utilise la spectroscopie fonctionnelle proche infrarouge, portée sur un appareil semblable à un bonnet de bain, pour surveiller l'activité neuronale de plusieurs individus s'engageant socialement.)

L’activité de notre cerveau peut-elle se synchroniser ? En 1965, la revue Science a publié les résultats d’une expérience suggérant que c’était possible. Des scientifiques de l'Université Thomas Jefferson de Philadelphie ont testé des paires de jumeaux identiques en insérant des électrodes sous leur cuir chevelu pour mesurer leurs ondes cérébrales – une technique appelée électroencéphalographie. Les chercheurs ont rapporté que lorsque les jumeaux restaient dans des pièces séparées, si l’un d’eux fermait les yeux, les ondes cérébrales des deux reflétaient le même mouvement. Les pointes sur l'électroencéphalographe de l'un des jumeaux reflétaient celles de l'autre. L’étude était cependant erronée sur le plan méthodologique. Les chercheurs avaient testé plusieurs paires de jumeaux mais n'avaient publié les résultats que pour la paire dans laquelle ils avaient observé une synchronie. Voilà qui n’a pas aidé ce domaine universitaire en plein essor. Pendant des décennies, la recherche sur la synchronisation intercérébrale fut donc reléguée dans la catégorie des " étranges bizarreries paranormales " et n’a pas été prise au sérieux.

La réputation du domaine a commencé à changer au début des années 2000 avec la popularisation de l' hyperscanning, une technique qui permet aux scientifiques de scanner simultanément le cerveau de plusieurs personnes en interaction. Au début, cela impliquait de demander à des paires de volontaires de s'allonger dans des appareils d'IRMf séparés, ce qui limitait considérablement les types d'études que les scientifiques pouvaient réaliser. Les chercheurs ont finalement pu utiliser la spectroscopie fonctionnelle proche infrarouge (fNIRS), qui mesure l'activité des neurones dans les couches externes du cortex. Le grand avantage de cette technologie est sa facilité d'utilisation : les volontaires peuvent jouer de la batterie ou étudier dans une salle de classe tout en portant des bonnets fNIRS, qui ressemblent à des bonnets de bain avec une multitude de câbles qui dépassent.

Lorsque plusieurs personnes  interagissent tout en portant des casquettes fNIRS, les scientifiques ont commencé à découvrir une activité interneurale synchronisée dans des régions du cerveau, qui variaient selon la tâche et la configuration de l'étude. Ils ont également observé des ondes cérébrales, qui représentent des schémas électriques dans le déclenchement neuronal, se synchronisant sur plusieurs fréquences. Sur une lecture électroencéphalographique de deux cerveaux synchronisés, les lignes représentant l'activité neuronale de chaque personne fluctuent ensemble : chaque fois que l'une monte ou descend, l'autre fait de même, bien que parfois avec un décalage dans le temps. Parfois, des ondes cérébrales apparaissent dans des images en miroir – lorsque celles d’une personne montent, celles de l’autre descendent en même temps et avec une ampleur similaire – ce que certains chercheurs considèrent également comme une forme de synchronie.

Avec de nouveaux outils, il est devenu de plus en plus clair que la synchronisation inter-cerveau n’était ni un charabia métaphysique ni le produit de recherches erronées. "Le signal est définitivement là", a déclaré Antonia Hamilton , neuroscientifique sociale à l'University College de Londres. Ce qui s'est avéré plus difficile à comprendre, c'est comment deux cerveaux indépendants, dans deux corps distincts, pouvaient montrer une activité similaire dans l'espace. Maintenant, dit Hamilton, la grande question est : " Qu’est-ce que cela nous raconte ? "

La recette de la synchronisation

Novembre est fasciné depuis longtemps par la manière dont les humains se coordonnent pour atteindre des objectifs communs. Comment les musiciens – les pianistes en duo, par exemple – collaborent-ils si bien ? Pourtant, c'est en pensant aux animaux, comme les lucioles synchronisant leurs flashs, qu'il s'est mis sur la voie de l'étude des ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau.

Étant donné que la synchronie est " si répandue parmi tant d’espèces différentes ", se souvient-il, " je me suis dit : OK, alors il pourrait y avoir un moyen très simple de l’expliquer. "

Novembre et ses collègues ont mis en place une expérience, publiée l'été dernier , dans laquelle des paires de volontaires ne faisaient que s'asseoir l'un en face de l'autre tandis qu'un équipement photographique suivait les mouvements de leurs yeux, de leur visage et de leur corps. Parfois, les volontaires pouvaient se voir ; à d'autres moments, ils étaient séparés par une cloison. Les chercheurs ont découvert que dès que les volontaires se regardaient dans les yeux, leurs ondes cérébrales se synchronisaient instantanément. Le sourire s’est avéré encore plus puissant pour aligner les ondes cérébrales.

" Il y a quelque chose de spontané dans la synchronisation", a déclaré Novembre.

Le mouvement est également lié à l’activité synchronisée des ondes cérébrales. Dans l'étude de Novembre, lorsque les gens bougeaient leur corps de manière synchronisée – si, par exemple, l'un levait la main et que l'autre faisait de même – leur activité neuronale correspondait, avec un léger décalage. Cependant, la synchronisation intercérébrale va au-delà de la simple reproduction des mouvements physiques. Dans une étude publiée l'automne dernier sur des pianistes jouant en duo, une rupture de la synchronisation comportementale n'a pas provoqué la désynchronisation des deux cerveaux.

Un autre ingrédient important de la synchronisation neuronale "face à face" semble être la prédiction mutuelle : anticiper les réponses et les comportements d'une autre personne. Chaque personne " bouge ses mains, son visage ou son corps, ou parle ", a expliqué Hamilton, " et réagit également aux actions de l'autre personne ". Par exemple, lorsque les gens jouaient au jeu de cartes italien Tressette, l'activité neuronale des partenaires se synchronisait, mais le cerveau de leurs adversaires ne s'alignait pas avec eux.

Le partage d’objectifs et l’attention commune semblent souvent cruciaux pour la synchronisation inter-cerveau. Dans une expérience menée en Chine, des groupes de trois personnes ont dû coopérer pour résoudre un problème. Se présenta un problème : l'un des membres de l'équipe était un chercheur qui faisait seulement semblant de s'engager dans la tâche, hochant la tête et commentant lorsque c'était approprié, mais ne se souciant pas vraiment du résultat. Son cerveau ne se synchronisait pas avec celui des véritables membres de l'équipe.

Cependant, certains critiques affirment que l’apparition d’une activité cérébrale synchronisée n’est pas la preuve d’une quelconque connexion, mais peut plutôt s’expliquer par la réaction des personnes à un environnement partagé. " Imaginez deux personnes écoutant la même station de radio dans deux pièces différentes ", a écrit Clay Holroyd, neuroscientifique cognitif à l'Université de Gand en Belgique qui n'étudie pas la synchronisation intercérébrale, dans un article de 2022 . "La synchronisation inter-cerveau pourrait augmenter pendant les chansons qu'ils apprécient  ensemble par rapport aux chansons qu'ils trouvent tous deux ennuyeuses, mais cela ne serait pas une conséquence d'un couplage direct de cerveau à cerveau."

Pour tester cette critique, des scientifiques de l'Université de Pittsburgh et de l'Université Temple ont conçu une expérience dans laquelle les participants travaillaient différemment sur une tâche ciblée : terminer un puzzle . Les volontaires ont soit assemblé un puzzle en collaboration, soit travaillé sur des puzzles identiques séparément, côte à côte. Même s’il existait une certaine synchronisation interneurale entre les chercheurs travaillant de manière indépendante, elle était bien plus importante chez ceux qui collaboraient.

Pour Novembre, ces découvertes et d’autres similaires suggèrent que la synchronisation intercérébrale est plus qu’un artefact environnemental. "Tant que vous mesurerez le cerveau lors d'une interaction sociale, vous devrez toujours faire face à ce problème", a-t-il déclaré. "Les cerveaux en interaction sociale seront exposés à des informations similaires."

(Photo : La Mutual Wave Machine, qui a fait le tour des villes du monde entier de 2013 à 2019, permet aux passants d'explorer la synchronisation intercérébrale par paires tout en générant des données pour la recherche en neurosciences.)

À moins qu’ils ne soient à des endroits différents, bien sûr. Pendant la pandémie, les chercheurs se sont intéressés à comprendre comment la synchronisation intercérébrale pourrait changer lorsque les gens parlent face à face par vidéo. Dans une étude, publiée fin 2022 , Dumas et ses collègues ont mesuré l'activité cérébrale des mères et de leurs préadolescents lorsqu'ils communiquaient par vidéo en ligne. Les cerveaux des couples étaient à peine synchronisés, bien moins que lorsqu'ils parlaient en vrai. Une telle mauvaise synchronisation inter-cerveau en ligne pourrait aider à expliquer pourquoi les réunions Zoom ont tendance à être si fatigantes, selon les auteurs de l'étude.

"Il manque beaucoup de choses dans un appel Zoom par rapport à une interaction en face à face", a déclaré Hamilton, qui n'a pas participé à la recherche. " Votre contact visuel est un peu différent parce que le positionnement de la caméra est incorrect. Plus important encore, votre attention commune est différente."

Identifier les ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau – qu'il s'agisse d'un contact visuel, d'un sourire ou du partage d'un objectif – pourrait nous aider à mieux profiter des avantages de la synchronisation avec les autres. Lorsque nous sommes sur la même longueur d’onde, les choses deviennent tout simplement plus faciles.

Avantages émergents

La neuroscientifique cognitive Suzanne Dikker aime exprimer son côté créatif en utilisant l'art pour étudier le fonctionnement du cerveau humain. Pour capturer la notion insaisissable d’être sur la même longueur d’onde, elle et ses collègues ont créé la Mutual Wave Machine : mi-installation artistique, mi-expérience neurologique. Entre 2013 et 2019, les passants de diverses villes du monde – Madrid, New York, Toronto, Athènes, Moscou et autres – ont pu faire équipe avec une autre personne pour explorer la synchronisation interneurale. Ils sont assis dans deux structures en forme de coquille se faisant face tout en portant un casque électroencéphalographe pour mesurer leur activité cérébrale. Pendant qu’ils interagissent pendant 10 minutes, les coquilles s’éclairent avec des projections visuelles qui servaient de neurofeedback : plus les projections sont lumineuses, plus leurs ondes cérébrales sont couplées. Cependant, certaines paires n'étaient pas informées que la luminosité des projections reflétait leur niveau de synchronisation, tandis que d'autres voyaient de fausses projections.

Lorsque Dikker et ses collègues ont analysé les résultats, publiés en 2021, ils ont découvert que les couples qui savaient qu'ils voyaient du neurofeedback se synchronisaient davantage avec le temps – un effet motivé par leur motivation à rester concentrés sur leur partenaire, ont expliqué les chercheurs. Plus important encore, leur synchronisation accrue a augmenté le sentiment de connexion sociale entre les deux. Il est apparu qu’être sur la même longueur d’onde cérébrale pourrait aider à établir des relations.

Dikker a également étudié cette idée dans un cadre moins artistique : la salle de classe. Dans une salle de classe de fortune dans un laboratoire, un professeur de sciences du secondaire encadrait des groupes de quatre élèves maximum pendant que Dikker et ses collègues enregistraient leur activité cérébrale. Dans une étude publiée sur le serveur de prépublication biorxiv.org en 2019, les chercheurs ont rapporté que plus les cerveaux des étudiants et de l'enseignant étaient synchronisés, plus les étudiants retenaient le matériel lorsqu'ils étaient testés une semaine plus tard. Une analyse de 2022 portant sur 16 études a confirmé que la synchronisation intercérébrale est effectivement liée à un meilleur apprentissage.

" La personne qui prête le plus d'attention ou qui s'accroche le mieux au signal de l'orateur sera également la plus synchronisée avec d'autres personnes qui accordent également la plus grande attention à ce que dit l'orateur ", a déclaré Dikker.

Ce n'est pas seulement l'apprentissage qui semble stimulé lorsque nos cerveaux sont synchronisés, mais également les performances et la coopération de l'équipe. Dans une autre étude réalisée par Dikker et ses collègues, des groupes de quatre personnes ont réfléchi à des utilisations créatives d'une brique ou classé des éléments essentiels pour survivre à un accident d'avion. Les résultats ont montré que plus leurs ondes cérébrales étaient synchronisées, mieux ils effectuaient ces tâches en groupe. Entre-temps, d'autres études ont montré que les équipes neuronales synchronisées non seulement communiquent mieux, mais surpassent également les autres dans les activités créatives telles que l'interprétation de la poésie .

Alors que de nombreuses études ont établi un lien entre la synchronisation intercérébrale et un meilleur apprentissage et de meilleures performances, la question reste de savoir si la synchronisation entraîne réellement de telles améliorations. Serait-ce plutôt une mesure d’engagement ? "Les enfants qui prêtent attention à l'enseignant feront preuve d'une plus grande synchronisation avec cet enseignant parce qu'ils sont plus engagés", a déclaré Holroyd. "Mais cela ne signifie pas que les processus synchrones contribuent réellement d'une manière ou d'une autre à l'interaction et à l'apprentissage."

Pourtant, les expériences sur les animaux suggèrent que la synchronisation neuronale peut effectivement conduire à des changements de comportement. Lorsque l’activité neuronale des souris était mesurée en leur faisant porter de minuscules capteurs en forme de chapeau haut de forme, par exemple, la synchronisation inter-cerveau prédisait si et comment les animaux interagiraient dans le futur. "C'est une preuve assez solide qu'il existe une relation causale entre les deux", a déclaré Novembre.

Chez l’homme, les preuves les plus solides proviennent d’expériences utilisant la stimulation électrique du cerveau pour générer une synchronisation interneurale. Une fois les électrodes placées sur le cuir chevelu des personnes, des courants électriques peuvent passer entre les électrodes pour synchroniser l’activité neuronale du cerveau des personnes. En 2017, Novembre et son équipe ont réalisé la première de ces expériences. Les résultats suggèrent que la synchronisation des ondes cérébrales dans la bande bêta, liée aux fonctions motrices, améliore la capacité des participants à synchroniser les mouvements de leur corps – dans ce cas, en frappant un rythme avec leurs doigts.

Plusieurs études ont récemment reproduit les conclusions de Novembre. Fin 2023, des chercheurs ont découvert qu'une fois les ondes cérébrales synchronisées par stimulation électrique, leur capacité à coopérer dans un jeu informatique simple s'améliorait considérablement. Et l'été dernier d'autres scientifiques ont montré qu'une fois que deux cerveaux sont synchronisés, les gens parviennent mieux à transférer des informations et à se comprendre.

La science est nouvelle, donc le jury ne sait toujours pas s'il existe un véritable lien de causalité entre la synchronie et le comportement humain coopératif. Malgré cela, la science de la synchronisation neuronale nous montre déjà à quel point nous bénéficions lorsque nous faisons les choses en synchronisation avec les autres. Sur le plan biologique, nous sommes programmés pour nous connecter.


Auteur: Internet

Info: https://www.quantamagazine.org/ - Marta Zaraska, 28 mars 2024

[ intelligence collective ] [ manipulation du public ] [ collectives réverbérations ] [ implication ] [ rapports humains ] [ transe ] [ attention partagée ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dichotomie

Un nouvel opus magnum postule l'existence d'un lien mathématique caché, semblable à la connexion entre l'électricité et le magnétisme.

En 2018, alors qu'il s'apprêtait à recevoir la médaille Fields, la plus haute distinction en mathématiques, Akshay Venkatesh avait un morceau de papier dans sa poche. Il y avait inscrit un tableau d'expressions mathématiques qui, depuis des siècles, jouent un rôle clé dans la théorie des nombres.

Bien que ces expressions aient occupé une place prépondérante dans les recherches de Venkatesh au cours de la dernière décennie, il les gardait sur lui non pas comme un souvenir de ce qu'il avait accompli, mais comme un rappel de quelque chose qu'il ne comprenait toujours pas.

Les colonnes du tableau étaient remplies d'expressions mathématiques à l'allure énigmatique : À l'extrême gauche se trouvaient des objets appelés périodes, et à droite, des objets appelés fonctions L, qui pourraient être la clé pour répondre à certaines des questions les plus importantes des mathématiques modernes. Le tableau suggérait une sorte de relation entre les deux. Dans un livre publié en 2012 avec Yiannis Sakellaridis, de l'université Johns Hopkins, Venkatesh avait trouvé un sens à cette relation : Si on leur donne une période, ils peuvent déterminer s'il existe une fonction L associée.

Mais ils ne pouvaient pas encore comprendre la relation inverse. Il était impossible de prédire si une fonction L donnée avait une période correspondante. Lorsqu'ils ont examiné les fonctions L, ils ont surtout constaté un certain désordre.

C'est pourquoi Venkatesh a gardé le papier dans sa poche. Il espérait que s'il fixait la liste suffisamment longtemps, les traits communs de cette collection apparemment aléatoire de fonctions L lui apparaîtraient clairement. Au bout d'un an, ce n'était pas le cas.

"Je n'arrivais pas à comprendre le principe qui sous-tendait ce tableau", a-t-il déclaré.

2018 fut une année importante pour Venkatesh à plus d'un titre. En plus de recevoir la médaille Fields, il a également quitté l'université de Stanford, où il se trouvait depuis une dizaine d'années, pour rejoindre l'Institute for Advanced Study à Princeton, dans le New Jersey.

Sakellaridis et lui ont également commencé à discuter avec David Ben-Zvi, un mathématicien de l'université du Texas, à Austin, qui passait le semestre à l'institut. Ben-Zvi avait construit sa carrière dans un domaine parallèle des mathématiques, en étudiant le même type de questions sur les nombres que Sakellaridis et Venkatesh, mais d'un point de vue géométrique. Lorsqu'il a entendu Venkatesh parler de cette table mystérieuse qu'il emportait partout avec lui, Ben-Zvi a presque immédiatement commencé à voir une nouvelle façon de faire communiquer les périodes et les fonctions L entre elles.

Ce moment de reconnaissance a été à l'origine d'une collaboration de plusieurs années qui s'est concrétisée en juillet dernier, lorsque Ben-Zvi, Sakellaridis et Venkatesh ont publié un manuscrit de 451 pages. L'article crée une traduction dans les deux sens entre les périodes et les fonctions L en refondant les périodes et les fonctions L en termes d'une paire d'espaces géométriques utilisés pour étudier des questions fondamentales en physique.

Ce faisant, il réalise un rêve de longue date dans le cadre d'une vaste initiative de recherche en mathématiques appelée "programme Langlands". Les mathématiciens qui travaillent sur des questions dans le cadre de ce programme cherchent à jeter des ponts entre des domaines disparates pour montrer comment des formes avancées de calcul (d'où proviennent les périodes) peuvent être utilisées pour répondre à des questions ouvertes fondamentales en théorie des nombres (d'où proviennent les fonctions L), ou comment la géométrie peut être utilisée pour répondre à des questions fondamentales en arithmétique.

Ils espèrent qu'une fois ces ponts établis, les techniques pourront être portées d'un domaine mathématique à un autre afin de répondre à des questions importantes qui semblent insolubles dans leur propre domaine.

Le nouvel article est l'un des premiers à relier les aspects géométriques et arithmétiques du programme, qui, pendant des décennies, ont progressé de manière largement isolée. En créant ce lien et en élargissant effectivement le champ d'application du programme Langlands tel qu'il a été conçu à l'origine, le nouvel article fournit un cadre conceptuel unique pour une multitude de connexions mathématiques.

"Il unifie un grand nombre de phénomènes disparates, ce qui réjouit toujours les mathématiciens", a déclaré Minhyong Kim, directeur du Centre international des sciences mathématiques d'Édimbourg, en Écosse.

Connecter eulement  

Le programme Langlands a été lancé par Robert Langlands, aujourd'hui professeur émérite à l'Institute for Advanced Study. Il a débuté en 1967 par une lettre manuscrite de 17 pages adressée par Langlands, alors jeune professeur à l'université de Princeton, à Andre Weil, l'un des mathématiciens les plus connus au monde. Langlands proposait d'associer des objets importants du calcul, appelés formes automorphes, à des objets de l'algèbre, appelés groupes de Galois. Les formes automorphes sont une généralisation des fonctions périodiques telles que le sinus en trigonométrie, dont les sorties se répètent à l'infini lorsque les entrées augmentent. Les groupes de Galois sont des objets mathématiques qui décrivent comment des entités appelées champs (comme les nombres réels ou rationnels) changent lorsqu'on leur ajoute de nouveaux éléments.

Les paires comme celle entre les formes automorphes et les groupes de Galois sont appelées dualités. Elles suggèrent que différentes classes d'objets se reflètent l'une l'autre, ce qui permet aux mathématiciens d'étudier l'une en fonction de l'autre.

Des générations de mathématiciens se sont efforcées de prouver l'existence de la dualité supposée de Langlands. Bien qu'ils n'aient réussi à l'établir que pour des cas limités, même ces cas limités ont souvent donné des résultats spectaculaires. Par exemple, en 1994, lorsque Andrew Wiles a démontré que la dualité proposée par Langlands était valable pour une classe particulière d'exemples, il a prouvé le dernier théorème de Fermat, l'un des résultats les plus célèbres de l'histoire des mathématiques.

En poursuivant le programme de Langlands, les mathématiciens l'ont également élargi dans de nombreuses directions.

L'une de ces directions a été l'étude de dualités entre des objets arithmétiques apparentés, mais distincts, de ceux qui intéressaient Langlands. Dans leur livre de 2012, Sakellaridis et Venkatesh ont étudié une dualité entre les périodes, qui sont étroitement liées aux formes automorphes, et les fonctions L, qui sont des sommes infinies attachées aux groupes de Galois. D'un point de vue mathématique, les périodes et les L-fonctions sont des objets d'espèces totalement différentes, sans traits communs évidents.

Les périodes sont devenues des objets d'intérêt mathématique dans les travaux d'Erich Hecke dans les années 1930.

Les fonctions L sont des sommes infinies utilisées depuis les travaux de Leonhard Euler au milieu du 18e siècle pour étudier des questions fondamentales sur les nombres. La fonction L la plus célèbre, la fonction zêta de Riemann, est au cœur de l'hypothèse de Riemann, qui peut être considérée comme une prédiction sur la répartition des nombres premiers. L'hypothèse de Riemann est sans doute le plus important problème non résolu en mathématiques.

Langlands était conscient des liens possibles entre les fonctions L et les périodes, mais il les considérait comme une question secondaire dans son projet de relier différents domaines des mathématiques.

"Dans un article, [Langlands] considérait que l'étude des périodes et des fonctions L ne valait pas la peine d'être étudiée", a déclaré M. Sakellaridis.

Bienvenue dans la machine

Bien que Robert Langlands n'ait pas insisté sur le lien entre les périodes et les fonctions L, Sakellaridis et Venkatesh les considéraient comme essentiels pour élargir et approfondir les liens entre des domaines mathématiques apparemment éloignés, comme l'avait proposé Langlands.

Dans leur livre de 2012, ils ont développé une sorte de machine qui prend une période en entrée, effectue un long calcul et produit une fonction L. Cependant, toutes les périodes ne produisent pas des L-fonctions correspondantes, et la principale avancée théorique de leur livre était de comprendre lesquelles le font. (Ce travail s'appuie sur des travaux antérieurs d'Atsushi Ichino et de Tamotsu Ikeda à l'université de Kyoto).

Mais leur approche avait deux limites. Premièrement, elle n'explique pas pourquoi une période donnée produit une fonction L donnée. La machine qui transforme l'une en l'autre était une boîte noire. C'était comme s'ils avaient construit un distributeur automatique qui produisait souvent de manière fiable quelque chose à manger chaque fois que vous mettiez de l'argent, sauf qu'il était impossible de savoir ce que ce serait à l'avance, ou si la machine mangerait l'argent sans distribuer d'en-cas.

Dans tous les cas, vous deviez déposer votre argent - votre période - puis "faire un long calcul et voir quelle fonction L vous obteniez parmi un zoo de fonctions", a déclaré M. Venkatesh.

La deuxième chose qu'ils n'ont pas réussi à faire dans leur livre, c'est de comprendre quelles fonctions L ont des périodes associées. Certaines en ont. D'autres non. Ils n'ont pas réussi à comprendre pourquoi.

Ils ont continué à travailler après la publication du livre, en essayant de comprendre pourquoi la connexion fonctionnait et comment faire fonctionner la machine dans les deux sens - non seulement en obtenant une fonction L à partir d'une période, mais aussi dans l'autre sens.

En d'autres termes, ils voulaient savoir que s'ils mettaient 1,50 $ dans le distributeur automatique, cela signifiait qu'ils allaient recevoir un sachet de Cheetos. De plus, ils voulaient pouvoir dire que s'ils tenaient un sachet de Cheetos, cela signifiait qu'ils avaient mis 1,50 $ dans le distributeur automatique.

Parce qu'elles relient des objets qui, à première vue, n'ont rien en commun, les dualités sont puissantes. Vous pourriez fixer un alignement d'objets mathématiques pendant une éternité sans percevoir la correspondance entre les fonctions L et les périodes.

"La manière dont elles sont définies et données, cette période et cette fonction L, n'a rien d'évident", explique Wee Teck Gan, de l'université nationale de Singapour.

Pour traduire des choses superficiellement incommensurables, il faut trouver un terrain d'entente. L'un des moyens d'y parvenir pour des objets tels que les fonctions L et les périodes, qui trouvent leur origine dans la théorie des nombres, est de les associer à des objets géométriques.

Pour prendre un exemple ludique, imaginez que vous avez un triangle. Mesurez la longueur de chaque côté et vous obtiendrez un ensemble de nombres qui vous indiquera comment écrire une fonction L. Prenez un autre triangle et, au lieu de mesurer les longueurs, regardez les trois angles intérieurs - vous pouvez utiliser ces angles pour définir une période. Ainsi, au lieu de comparer directement les fonctions L et les périodes, vous pouvez comparer les triangles qui leur sont associés. On peut dire que les triangles "indexent" les L-fonctions et les périodes - si une période correspond à un triangle avec certains angles, alors les longueurs de ce triangle correspondent à une L-fonction correspondante.

Si une période correspond à un triangle avec certains angles, les longueurs de ce triangle correspondent à une fonction L. "Cette période et cette fonction L, il n'y a pas de relation évidente dans la façon dont elles vous sont données. L'idée était donc que si vous pouviez comprendre chacune d'entre elles d'une autre manière, d'une manière différente, vous pourriez découvrir qu'elles sont très comparables", a déclaré M. Gan.

Dans leur ouvrage de 2012, Sakellaridis et Venkatesh ont réalisé une partie de cette traduction. Ils ont trouvé un moyen satisfaisant d'indexer des périodes en utilisant un certain type d'objet géométrique. Mais ils n'ont pas pu trouver une façon similaire de penser aux fonctions L.

Ben-Zvi pensait pouvoir le faire.

Le double marteau de Maxwell

Alors que les travaux de Sakellaridis et Venkatesh se situaient légèrement à côté de la vision de Langlands, Ben-Zvi travaillait dans un domaine des mathématiques qui se situait dans un univers totalement différent - une version géométrique du programme de Langlands.

Le programme géométrique de Langlands a débuté au début des années 1980, lorsque Vladimir Drinfeld et Alexander Beilinson ont suggéré une sorte de dualité de second ordre. Drinfeld et Beilinson ont proposé que la dualité de Langlands entre les groupes de Galois et les formes automorphes puisse être interprétée comme une dualité analogue entre deux types d'objets géométriques. Mais lorsque Ben-Zvi a commencé à travailler dans le programme géométrique de Langlands en tant qu'étudiant diplômé à l'université de Harvard dans les années 1990, le lien entre le programme géométrique et le programme original de Langlands était quelque peu ambitieux.

"Lorsque le programme géométrique de Langlands a été introduit pour la première fois, il s'agissait d'une séquence d'étapes psychologiques pour passer du programme original de Langlands à cet énoncé géométrique qui semblait être un tout autre genre d'animal", a déclaré M. Ben-Zvi.

En 2018, lorsque M. Ben-Zvi a passé une année sabbatique à l'Institute for Advanced Study, les deux parties se sont rapprochées, notamment dans les travaux publiés la même année par Vincent Lafforgue, chercheur à l'Institut Fourier de Grenoble. Pourtant, M. Ben-Zvi prévoyait d'utiliser son séjour sabbatique de 2018 à l'IAS pour effectuer des recherches sur l'aspect géométrique du programme Langlands. Son plan a été perturbé lorsqu'il est allé écouter un exposé de Venkatesh.

"Mon fils et la fille d'Akshay étaient des camarades de jeu, et nous étions amis sur le plan social, et j'ai pensé que je devrais assister à certaines des conférences qu'Akshay a données au début du semestre", a déclaré Ben-Zvi.

Lors de l'une de ces premières conférences, Venkatesh a expliqué qu'il fallait trouver un type d'objet géométrique capable d'indexer à la fois les périodes et les fonctions L, et il a décrit certains de ses récents progrès dans cette direction. Il s'agissait d'essayer d'utiliser des espaces géométriques issus d'un domaine des mathématiques appelé géométrie symplectique, que Ben-Zvi connaissait bien pour avoir travaillé dans le cadre du programme géométrique de Langlands.

"Akshay et Yiannis ont poussé dans une direction où ils ont commencé à voir des choses dans la géométrie symplectique, et cela m'a fait penser à plusieurs choses", a déclaré M. Ben-Zvi.

L'étape suivante est venue de la physique.

Pendant des décennies, les physiciens et les mathématiciens ont utilisé les dualités pour trouver de nouvelles descriptions du fonctionnement des forces de la nature. Le premier exemple, et le plus célèbre, est celui des équations de Maxwell, écrites pour la première fois à la fin du XIXe siècle, qui relient les champs électriques et magnétiques. Ces équations décrivent comment un champ électrique changeant crée un champ magnétique, et comment un champ magnétique changeant crée à son tour un champ électrique. Ils peuvent être décrits conjointement comme un champ électromagnétique unique. Dans le vide, "ces équations présentent une merveilleuse symétrie", a déclaré M. Ben-Zvi. Mathématiquement, l'électricité et le magnétisme peuvent changer de place sans modifier le comportement du champ électromagnétique commun.

Parfois, les chercheurs s'inspirent de la physique pour prouver des résultats purement mathématiques. Par exemple, dans un article de 2008, les physiciens Davide Gaiotto et Edward Witten ont montré comment les espaces géométriques liés aux théories quantiques des champs de l'électromagnétisme s'intègrent dans le programme géométrique de Langlands. Ces espaces sont présentés par paires, une pour chaque côté de la dualité électromagnétique : les espaces G hamiltoniens et leur dual : Les espaces Ğ hamiltoniens (prononcés espaces G-hat).

Ben-Zvi avait pris connaissance de l'article de Gaiotto-Witten lors de sa publication, et il avait utilisé le cadre physique qu'il fournissait pour réfléchir à des questions relatives à la géométrie de Langlands. Mais ce travail - sans parler de l'article de physique qui l'a motivé - n'avait aucun lien avec le programme original de Langlands.

Jusqu'à ce que Ben-Zvi se retrouve dans le public de l'IAS en train d'écouter Venkatesh. Il a entendu Venkatesh expliquer qu'à la suite de leur livre de 2012, lui et Sakellaridis en étaient venus à penser que la bonne façon géométrique d'envisager les périodes était en termes d'espaces Hamiltoniens G. Mais Venkatesh a admis qu'ils ne savaient pas quel type d'objet géométrique associer aux L-fonctions. 

Cela a mis la puce à l'oreille de Ben-Zvi. Une fois que Sakellaridis et Venkatesh ont relié les périodes aux espaces G hamiltoniens, les objets géométriques duaux des fonctions L sont devenus immédiatement clairs : les espaces Ğ dont Gaiotto et Witten avaient dit qu'ils étaient les duaux des espaces G. Pour Ben-Zvi, toutes ces dualités, entre l'arithmétique, la géométrie et la physique, semblaient converger. Même s'il ne comprenait pas toute la théorie des nombres, il était convaincu que tout cela faisait partie d'une "grande et belle image".

To G or Not to Ğ

Au printemps 2018, Ben-Zvi, Sakellaridis et Venkatesh se sont rencontrés régulièrement au restaurant du campus de l'Institute for Advanced Study ; pendant quelques mois, ils ont cherché à savoir comment interpréter les données extraites des L-fonctions comme une recette pour construire des Ğ-espaces hamiltoniens. Dans l'image qu'ils ont établie, la dualité entre les périodes et les fonctions L se traduit par une dualité géométrique qui prend tout son sens dans le programme géométrique de Langlands et trouve son origine dans la dualité entre l'électricité et le magnétisme. La physique et l'arithmétique deviennent des échos l'une de l'autre, d'une manière qui se répercute sur l'ensemble du programme de Langlands.

"On pourrait dire que le cadre original de Langlands est maintenant un cas particulier de ce nouveau cadre", a déclaré M. Gan.

En unifiant des phénomènes disparates, les trois mathématiciens ont apporté une partie de l'ordre intrinsèque à la relation entre l'électricité et le magnétisme à la relation entre les périodes et les fonctions L.

"L'interprétation physique de la correspondance géométrique de Langlands la rend beaucoup plus naturelle ; elle s'inscrit dans cette image générale des dualités", a déclaré Kim. "D'une certaine manière, ce que [ce nouveau travail] fait est un moyen d'interpréter la correspondance arithmétique en utilisant le même type de langage.

Le travail a ses limites. Les trois mathématiciens prouvent en particulier  la dualité entre les périodes et les fonctions L sur des systèmes de nombres qui apparaissent en géométrie, appelés champs de fonctions, plutôt que sur des champs de nombres - comme les nombres réels - qui sont le véritable domaine d'application du programme de Langlands.

"L'image de base est censée s'appliquer aux corps de nombres. Je pense que tout cela sera finalement développé pour les corps de nombres", a déclaré M. Venkatesh.

Même sur les champs de fonctions, le travail met de l'ordre dans la relation entre les périodes et les fonctions L. Pendant les mois où Venkatesh a transporté un imprimé dans sa poche, lui et Sakellaridis n'avaient aucune idée de la raison pour laquelle ces fonctions L devraient être celles qui sont associées aux périodes. Aujourd'hui, la relation est logique dans les deux sens. Ils peuvent la traduire librement en utilisant un langage commun.

"J'ai connu toutes ces périodes et j'ai soudain appris que je pouvais retourner chacune d'entre elles et qu'elle se transformait en une autre que je connaissais également. C'est une prise de conscience très choquante", a déclaré M. Venkatesh.



 

Auteur: Internet

Info: https://www.quantamagazine.org. Kevin Hartnett, contributing Writer, October 12, 2023 https://www.quantamagazine.org/echoes-of-electromagnetism-found-in-number-theory-20231012/?mc_cid=cc4eb576af&mc_eid=78bedba296

[ fonction L p-adique ] [ fonction périodique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel