Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.0288s

manipulation

On a toujours su falsifier l'histoire pour des motivations politiques ou culturelles.

Auteur: Wickert Ulrich

Info: Comment peut-on être allemand ?

 

Commentaires: 0

dissimuler

Il n'y a pas moins de reproche à taire une vérité qu'à falsifier un mensonge.

Auteur: Pasquier Etienne

Info: Recherches de la France

[ tromper ]

 

Commentaires: 0

dépisition

Nous passâmes donc le reste de la journée à faire de faux témoignages dans des salles d'interrogatoires séparées, prenant soin de saupoudrer nos versions largement concordantes de petites divergences – par souci d'authenticité. Personne ne sait falsifier une déposition comme un policier.

Auteur: Aaronovitch Ben

Info: Le dernier apprenti sorcier, tome 1 : Les rivières de Londres

[ bidon ] [ faussaire ]

 

Commentaires: 0

épistémologie

Il y a une philosophie qui dit que si une chose/concept est inobservable - inobservable dans son principe - elle ne fait pas partie de la science. S'il n'existe aucun moyen de falsifier ou de confirmer une hypothèse, celle-ci appartient au domaine de la spéculation métaphysique, au même titre que l'astrologie et le spiritisme. Selon cette norme, la majeure partie de l'univers n'a pas de réalité scientifique - elle n'est que le fruit de notre imagination.

Auteur: Susskind Leonard

Info: The Black Hole War : My Battle with Stephen Hawking to Make the World Safe for Quantum Mechanics

[ horizon du savoir ] [ science physique ] [ cosmologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

russie

A un certain moment, nous avons eu l’idée d'un grand show patriotique. En demandant à notre public de nous indiquer ses héros, les personnages sur lesquels se fonde l'orgueil de la mère Russie, nous nous attendions aux grands esprits : Tolstoi, Pouchkine, Andrei Roublev, ou que sais-je, un chanteur, un acteur comme cela arriverait chez vous. Mais que nous ont donné les spectateurs, la masse mforme du peuple habitué à courber Ie dos et baisser Ie regard ? Que des noms de dictateurs. Leurs héros, les fondateurs de la patrie, coïncidaient avec une liste d'autocrates sanguinaires : Ivan Ie Terrible, Pierre Ie Grand, Lénine, Staline. On a ete obligés de falsifier les résultats pour faire gagner Alexandre Nevski, un guerrier au moins, pas un exterminateur. Mais celui qui a recueilli Ie plus de voix fut Staline. Staline, vous vous rendez compte ? C'est là que j'ai compris que la Russie ne serait jamais devenue un pays comme les autres. Non pas qu'il y ait eu un vrai doute.

Auteur: Empoli Giuliano da

Info: Le mage du Kremlin

[ historique ] [ dictateurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

manipulation

Nous faisions une télévision barbare et vulgaire comme le veut la nature de ce média. Les Américains n’avaient plus rien à nous apprendre, en fait c’était nous qui repoussions les frontières du trash. Mais, de temps à autre, l’immémoriale âme russe émergeait des profondeurs. À un certain moment, nous avons eu l’idée d’un grand show patriotique. En demandant à notre public de nous indiquer ses héros, les personnages sur lesquels se fonde l’orgueil de la mère Russie, nous nous attendions aux grands esprits : Tolstoï, Pouchkine, Andreï Roublev, ou que sais-je, un chanteur, un acteur comme cela arriverait chez vous. Mais que nous ont donné les spectateurs, la masse informe du peuple habitué à courber le dos et baisser le regard ? Que des noms de dictateurs. Leurs héros, les fondateurs de la patrie, coïncidaient avec une liste d’autocrates sanguinaires : Ivan le Terrible, Pierre le Grand, Lénine, Staline. On a été obligés de falsifier les résultats pour faire gagner Alexandre Nevski, un guerrier au moins, pas un exterminateur. Mais celui qui a recueilli le plus de voix fut Staline. Staline, vous vous rendez compte ? C’est là que j’ai compris que la Russie ne serait jamais devenue un pays comme les autres. Non pas qu’il y ait eu un vrai doute.

Auteur: Empoli Giuliano da

Info: Le mage du Kremlin

[ aveuglement patriotique ] [ opinion publique ] [ propagande ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

magouille sémantique

Manipulation du savoir : L'intersection de la fenêtre d'Overton et de l'activisme académique

Les frontières de la science sont-elles devenues poreuses avec l'activisme académique ? C'est la question centrale que soulève Jean-François Le Drian dans son nouvel ouvrage, "Activismes" paru chez VA Éditions, et au cours de cette entrevue. Au fil de la discussion, l'auteur dévoile les dessous d'une manipulation subtile du savoir, où l'intersection de la fenêtre d'Overton et de l'activisme académique joue un rôle déterminant. Il décrit avec précision comment de simples idées peuvent être élevées au rang de concepts scientifiquement acceptables, affectant ainsi l’intégrité de la recherche authentique et de la méthodologie scientifique. Cet échange éclairant met en lumière le combat essentiel pour préserver l'authenticité et l'objectivité de la science face à une mer montante de pseudoscience et d'idéologies activiste.

(Q) Pour nos lecteurs qui ne sont pas familiers avec la fenêtre d'Overton, pourriez-vous brièvement expliquer ce concept et comment il peut être utilisé pour changer la perception du public sur certaines idées ?

(R) Pour expliquer ce concept, il est préférable de l’illustrer avec un exemple. Si je vous disais que les djinns existent, peuvent nous posséder, nous adresser des injonctions, vous seriez dans un premier temps tenter de ranger cette thèse dans la catégorie des superstitions et des lubies et vous auriez certainement raison.

Si un philosophe se met à distinguer entre la propriété des pensées et la paternité des pensées et décide d’étudier en employant un jargon académique la possibilité d’une paternité extérieure des pensées, l’impensable devient tout à coup pensable.

Justement, dans mon livre, j’explique comment un philosophe reconnu par ses pairs en arrive à affirmer que la psychologie est nécessairement culturelle et que par conséquent certaines théories psychologiques peuvent valablement affirmer la possibilité d’une paternité extérieure des pensées.

Ici on passe de l’impensable au pensable puis au possible. Il ne reste plus qu’à faire porter ces idées par les activistes de la folie pour les rendre acceptables, le stade suivant étant de loger ces représentations dans le registre du " souhaitable ".

Ainsi, un idéologue activiste doté d’un doctorat peut donc tout à fait, s’il s’y prend bien, faire entrer l’idée la plus absurde dans le registre de l’acceptable voire parfois même du non discuté.

(Q) Dans votre texte, vous mettez en lumière la manière dont certaines idées reçoivent un "sceau académique" sans une vérification empirique rigoureuse. Comment les institutions académiques, selon vous, ont-elles été transformées en vecteurs de diffusion d'idées influencées par l'activisme ?

(R) Selon moi, l’une des grandes erreurs de notre temps consiste à accorder trop d’importance à la sociologie de la connaissance au détriment de la philosophie des sciences. Au lieu de s’intéresser au contenu, la tendance consiste à s’attacher aux intentions présumées du créateur d’idées, de thèses, à son " habitat social ".

Il est malheureusement facile de construire des théories qui font rentrer tous les faits et qui par conséquents ne devraient pas être qualifiées de théories scientifique. C’est le cas de certaines théories dites " normatives " dont le degré de scientificité est généralement très faible.

Le simple usage d’un jargon spécialisé usité au sein d’une mouvance universitaire permettra à un universitaire militant d’obtenir une reconnaissance par ses pairs qui aux yeux du public vaudra reconnaissance du caractère scientifique d’une thèse qui en réalité ne possèdera le plus souvent qu’un caractère normatif.

(Q) Vous évoquez la saturation de l'espace académique avec des "hadiths scientifiques". Comment ce mécanisme fonctionne-t-il et quels sont ses effets sur la recherche authentique ?

(R) Les hadiths scientifiques sont des scripts normatifs sans degré de scientificité auxquels on attache une connotation scientifique le plus souvent parce que leurs inventeurs disposent d’un titre académique et que le hadith possède un vernis académique qui lui confère une apparence de scientificité.

(Q) Face à la montée d'un tel activisme, que recommanderiez-vous aux chercheurs pour préserver l'intégrité de leurs travaux et s'assurer qu'ils ne sont pas noyés dans un "océan de pseudoscience" pour reprendre vos termes ?

(R) La première chose est de bannir le raisonnement téléologique, celui qui consiste à décider à l’avance du résultat à atteindre et à ajuster son raisonnement à ses intentions. Un " vrai " chercheur devrait parfois pouvoir aboutir à des conclusions qui lui déplaisent et qui contredisent ses croyances préexistantes.

Il faut revenir à la méthode qui consiste à chercher continuellement à falsifier, à réfuter ses propres convictions. Aujourd’hui, même dans les milieux universitaires, on procède de manière inverse en produisant les rationalisations ou en sélectionnant les faits qui viendront soutenir une idéologie préexistante.

Le biais de confirmation est exactement le contraire de la méthode scientifique. Malheureusement, il affecte autant les départements de sociologie et de sciences politiques que le grand public.

Auteur: Internet

Info: https://www.journaldeleconomie.fr/, 17 Octobre 2023, par La Rédaction

[ instrumentalisation ] [ onomasiologique ] [ science molle ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

science métempirique

Des " expériences métaphysiques " explorent nos hypothèses cachées sur la réalité

Les expériences qui testent la physique et la philosophie comme " un tout unique " pourraient être notre seule voie vers une connaissance sûre de l’univers.

La métaphysique est la branche de la philosophie qui s'intéresse à l'échafaudage profond du monde : la nature de l'espace, du temps, de la causalité et de l'existence, les fondements de la réalité elle-même. Elle est généralement considérée comme invérifiable, car les hypothèses métaphysiques sous-tendent tous nos efforts pour effectuer des tests et interpréter les résultats. Ces hypothèses restent généralement tacites.

La plupart du temps, c'est normal. Les intuitions que nous avons sur la façon dont le monde fonctionne entrent rarement en conflit avec notre expérience quotidienne. À des vitesses bien inférieures à celle de la lumière ou à des échelles bien plus grandes que l'échelle quantique, nous pouvons, par exemple, supposer que les objets ont des caractéristiques définies indépendantes de nos mesures, que nous partageons tous un espace et un temps universels, qu'un fait pour l'un d'entre nous est un fait pour tous. Tant que notre philosophie fonctionne, elle se cache en arrière-plan, sans que personne ne la détecte, nous conduisant à croire à tort que la science est quelque chose de séparable de la métaphysique.

Mais aux confins inexplorés de l’expérience – à grande vitesse et à petite échelle – ces intuitions cessent de nous servir, ce qui nous rend impossible de faire de la science sans affronter de front nos hypothèses philosophiques. Soudain, nous nous trouvons dans un endroit où la science et la philosophie ne peuvent plus être clairement distinguées. Un endroit que le physicien Eric Cavalcanti appelle " métaphysique expérimentale ".

Cavalcanti porte le flambeau d'une tradition qui remonte à une longue lignée de penseurs rebelles qui ont résisté aux lignes de démarcation habituelles entre physique et philosophie. En métaphysique expérimentale, les outils de la science peuvent être utilisés pour tester nos visions du monde philosophiques, qui peuvent à leur tour être utilisées pour mieux comprendre la science. Cavalcanti, un Brésilien de 46 ans qui est professeur à l'université Griffith de Brisbane, en Australie, et ses collègues ont publié le résultat le plus solide jamais obtenu en métaphysique expérimentale, un théorème qui impose des contraintes strictes et surprenantes sur la nature de la réalité. Ils conçoivent maintenant des expériences astucieuses, bien que controversées, pour tester nos hypothèses non seulement sur la physique, mais aussi sur l'esprit.

On pourrait s’attendre à ce que l’injection de philosophie dans la science aboutisse à quelque chose de moins scientifique, mais en réalité, selon Cavalcanti, c’est tout le contraire. " Dans un certain sens, la connaissance que nous obtenons grâce à la métaphysique expérimentale est plus sûre et plus scientifique ", a-t-il déclaré, car elle vérifie non seulement nos hypothèses scientifiques mais aussi les prémisses qui se cachent généralement en dessous.

La frontière entre science et philosophie n’a jamais été clairement définie. Elle est souvent tracée en fonction de la testabilité. Toute science digne de ce nom est réputée vulnérable aux tests qui peuvent la falsifier, alors que la philosophie vise des vérités pures qui se situent quelque part hors de portée de l’expérimentation. Tant que cette distinction perdure, les physiciens croient qu’ils peuvent s’occuper des affaires compliquées de la " vraie science " et laisser les philosophes dans leurs fauteuils, à se caresser le menton.

Mais il s’avère que la distinction entre la testabilité et la fiabilité n’est pas valable. Les philosophes savent depuis longtemps qu’il est impossible de prouver une hypothèse. (Peu importe le nombre de cygnes blancs que vous voyez, le prochain pourrait être noir.) C’est pourquoi Karl Popper a dit qu’une affirmation n’est scientifique que si elle est falsifiable – si nous ne pouvons pas la prouver, nous pouvons au moins essayer de la réfuter. En 1906, cependant, le physicien français Pierre Duhem a montré qu’il était impossible de réfuter une seule hypothèse. Chaque élément scientifique est lié à un enchevêtrement d’hypothèses, a-t-il soutenu. Ces hypothèses concernent tout, des lois physiques sous-jacentes au fonctionnement d’appareils de mesure spécifiques. Si le résultat de votre expérience semble réfuter votre hypothèse, vous pouvez toujours rendre compte des données en modifiant l’une de vos hypothèses tout en laissant votre hypothèse intacte.

Prenons par exemple la géométrie de l’espace-temps. Emmanuel Kant, philosophe du XVIIIe siècle, a déclaré que les propriétés de l’espace et du temps ne sont pas des questions empiriques. Il pensait non seulement que la géométrie de l’espace était nécessairement euclidienne, ce qui signifie que la somme des angles intérieurs d’un triangle donne 180 degrés, mais que ce fait devait être R la base de toute métaphysique future ". Selon Kant, elle n’était pas testable empiriquement, car elle fournissait le cadre même dans lequel nous comprenons le fonctionnement de nos tests.

Et pourtant, en 1919, lorsque les astronomes ont mesuré la trajectoire de la lumière des étoiles lointaines contournant l'influence gravitationnelle du Soleil, ils ont découvert que la géométrie de l'espace n'était pas du tout euclidienne : elle était déformée par la gravité, comme Albert Einstein l'avait récemment prédit.

Ou bien l’ont-ils vraiment fait ? Henri Poincaré, le grand penseur français, a proposé une expérience de pensée fascinante. Imaginez que l’univers soit un disque géant conforme à la géométrie euclidienne, mais dont les lois physiques incluent les suivantes : le disque est plus chaud au centre et plus froid sur les bords, la température diminuant proportionnellement au carré de la distance par rapport au centre. De plus, cet univers présente un indice de réfraction (une mesure de la courbure des rayons lumineux) inversement proportionnel à la température. Dans un tel univers, les règles et les mètres ne seraient jamais droits (les objets solides se dilateraient et rétréciraient en fonction du gradient de température) tandis que l’indice de réfraction donnerait l’impression que les rayons lumineux se déplacent en courbes plutôt qu’en lignes. Par conséquent, toute tentative de mesurer la géométrie de l’espace (par exemple en additionnant les angles d’un triangle) conduirait à croire que l’espace n’est pas euclidien.

Tout test de géométrie nécessite de supposer certaines lois de la physique, tandis que tout test de ces lois de la physique nécessite de supposer la géométrie. Bien sûr, les lois physiques du monde du disque semblent ad hoc, mais les axiomes d’Euclide le sont aussi. " Poincaré, à mon avis, a raison ", a déclaré Einstein dans une conférence en 1921. Il a ajouté : " Seule la somme de la géométrie et des lois physiques est sujette à vérification expérimentale. " Comme l’a dit le logicien américain Willard V.O. Quine, " l’unité de signification empirique " – la chose qui est réellement testable – " est l’ensemble de la science. " L’observation la plus simple (que le ciel soit bleu, par exemple, ou que la particule soit là) nous oblige à remettre en question tout ce que nous savons sur le fonctionnement de l’univers.

Mais en réalité, c’est pire que cela. L’unité de signification empirique est une combinaison de science et de philosophie. Le penseur qui l’a le plus clairement perçu est le mathématicien suisse du XXe siècle Ferdinand Gonseth. Pour Gonseth, la science et la métaphysique sont toujours en dialogue l’une avec l’autre, la métaphysique fournissant les fondements sur lesquels la science opère, la science fournissant des preuves qui obligent la métaphysique à réviser ces fondements, et les deux s’adaptant et changeant ensemble comme un organisme vivant et respirant. Comme il l’a déclaré lors d’un symposium auquel il a assisté en l’honneur d’Einstein, " la science et la philosophie forment un tout unique ".

Ces deux notions étant liées par un nœud gordien, nous serions tentés de baisser les bras, car nous ne pouvons pas mettre à l’épreuve des affirmations scientifiques sans entraîner avec elles des affirmations métaphysiques. Mais il y a un revers à la médaille : cela signifie que la métaphysique est testable. C’est pourquoi Cavalcanti, qui travaille aux confins de la connaissance quantique, ne se qualifie pas de physicien, ni de philosophe, mais de " métaphysicien expérimental ".

J’ai rencontré Cavalcanti lors d’un appel vidéo. Ses cheveux noirs tirés en arrière en un chignon, il avait l’air maussade, son attitude prudente et sérieuse n’était compensée que par un chiot de 15 semaines qui se tortillait sur ses genoux. Il m’a raconté comment, alors qu’il était étudiant au Brésil à la fin des années 1990, il travaillait sur la biophysique expérimentale – " des choses très humides ", comme il le décrit, " extraire des cœurs de lapins et les placer sous des magnétomètres [supraconducteurs] ", ce genre de choses. Bien qu’il soit rapidement passé à un terrain plus sec (" travailler dans des accélérateurs de particules, étudier les collisions atomiques "), son travail était encore loin des questions métaphysiques qui persistaient déjà dans son esprit. " On m’avait dit que les questions intéressantes sur les fondements de la mécanique quantique avaient toutes été résolues par [Niels] Bohr dans ses débats avec Einstein ", a-t-il déclaré. Il a donc mesuré une autre section efficace, a produit un autre article et a tout recommencé le lendemain.

Il a fini par travailler pour la Commission nationale de l’énergie nucléaire du Brésil, et c’est là qu’il a lu les livres des physiciens Roger Penrose et David Deutsch, chacun proposant une histoire métaphysique radicalement différente pour expliquer les faits de la mécanique quantique. Devrions-nous abandonner l’hypothèse philosophique selon laquelle il n’y a qu’un seul univers, comme le suggérait Deutsch ? Ou, comme le préférait Penrose, peut-être que la théorie quantique cesse de s’appliquer à grande échelle, lorsque la gravité entre en jeu. " Il y avait là ces brillants physiciens qui non seulement discutent directement des questions relatives aux fondements, mais qui sont également profondément en désaccord les uns avec les autres ", a déclaré Cavalcanti. Penrose, a-t-il ajouté, " est même allé au-delà de la physique pour entrer dans ce qui est traditionnellement de la métaphysique, en posant des questions sur la conscience. "

Inspiré, Cavalcanti décide de poursuivre un doctorat sur les fondements quantiques et trouve une place à l’Université du Queensland en Australie. Sa thèse commence ainsi : " Pour comprendre la source des conflits des fondements quantiques, il est essentiel de savoir où et comment nos modèles et intuitions classiques commencent à ne plus pouvoir décrire un monde quantique. C’est le sujet de la métaphysique expérimentale. " Un professeur dépose sa thèse et déclare : " Ce n’est pas de la physique. "

Mais Cavalcanti était prêt à démontrer que la frontière entre physique et philosophie était déjà irrémédiablement floue. Dans les années 1960, le physicien nord-irlandais John Stewart Bell avait lui aussi rencontré une culture de la physique qui n’avait aucune patience pour la philosophie. L’époque où Einstein et Bohr se disputaient sur la nature de la réalité – et s’engageaient dans une profonde réflexion philosophique – était révolue depuis longtemps. L’esprit pratique de l’après-guerre régnait et les physiciens étaient impatients de se consacrer à la physique, comme si le nœud gordien avait été tranché, comme s’il était possible d’ignorer la métaphysique tout en parvenant à faire de la science. Mais Bell, effectuant son travail hérétique pendant son temps libre, a découvert une nouvelle possibilité : s’il est vrai qu’on ne peut pas tester une seule hypothèse de manière isolée, on peut prendre plusieurs hypothèses métaphysiques et voir si elles tiennent ou non ensemble.

Pour Bell, ces hypothèses sont généralement comprises comme étant la localité (la croyance que les choses ne peuvent pas s'influencer les unes les autres instantanément à travers l'espace) et le réalisme (qu'il existe une certaine manière dont les choses sont simplement, indépendamment de leur mesure). Son théorème, publié en 1964, a prouvé ce que l'on appelle l'inégalité de Bell : pour toute théorie fonctionnant sous les hypothèses de localité et de réalisme, il existe une limite supérieure à la corrélation entre certains événements. La mécanique quantique, cependant, a prédit des corrélations qui ont dépassé cette limite supérieure.

Le théorème de Bell n'était pas testable tel qu'il était rédigé, mais en 1969, le physicien et philosophe Abner Shimony a compris qu'il pouvait être réécrit sous une forme adaptée au laboratoire. Avec l'aide de John Clauser, Michael Horne et Richard Holt, Shimony a transformé l'inégalité de Bell en inégalité CHSH (du nom des initiales de ses auteurs) et en 1972, dans un sous-sol de Berkeley, en Californie, Clauser et son collaborateur Stuart Freedman l'ont mise à l'épreuve en mesurant les corrélations entre paires de photons.

Les résultats ont montré que le monde confirmait les prédictions de la mécanique quantique, montrant des corrélations qui restaient bien plus fortes que ne le permettait l’inégalité de Bell. Cela signifiait que la localité et le réalisme ne pouvaient pas être tous deux des caractéristiques de la réalité – bien que les expériences ne puissent pas dire lequel des deux nous devrions abandonner. " À mon avis, ce qui est le plus fascinant dans les théorèmes du type de Bell, c’est qu’ils offrent une occasion rare de mener une entreprise que l’on peut à juste titre appeler - métaphysique expérimentale - ", écrivait Shimony en 1980 dans la déclaration qui est largement considérée comme à l’origine du terme.

Mais il se trouve que le terme remonte à bien plus loin, jusqu'à un personnage des plus improbables. Michele Besso, le meilleur ami et le conseiller d'Einstein, fut la seule personne à qui Einstein doit son aide pour élaborer la théorie de la relativité. Mais Besso l'a moins aidé en physique qu'en philosophie. Einstein avait toujours été un réaliste, croyant en une réalité cachée, indépendante de nos observations, mais Besso lui a fait découvrir les écrits philosophiques d'Ernst Mach, qui soutenait qu'une théorie ne devait se référer qu'à des quantités mesurables. Mach, par l'intermédiaire de Besso, a encouragé Einstein à abandonner ses notions métaphysiques d'espace, de temps et de mouvement absolus. Le résultat fut la théorie de la relativité restreinte.

Lors de sa publication en 1905, les physiciens ne savaient pas vraiment si cette théorie relevait de la physique ou de la philosophie. Toutes ses équations avaient déjà été écrites par d’autres ; seule la métaphysique qui les sous-tendait était nouvelle. Mais cette métaphysique a suffi à donner naissance à une nouvelle science, la relativité restreinte ayant cédé la place à la relativité générale, une nouvelle théorie de la gravité, assortie de nouvelles prédictions vérifiables. Besso s’est ensuite lié d’amitié avec Gonseth ; en Suisse, les deux hommes ont fait de longues promenades ensemble, au cours desquelles Gonseth a fait valoir que la physique ne pourrait jamais être posée sur des fondations solides, car les expériences peuvent toujours renverser les hypothèses les plus fondamentales sur lesquelles elle est construite. Dans une lettre que Gonseth a publiée dans un numéro de 1948 de la revue Dialectica , Besso a suggéré à Gonseth de qualifier son travail de " métaphysique expérimentale ".

La métaphysique expérimentale a acquis une sorte de siège officiel dans les années 1970 avec la fondation de l’Association Ferdinand Gonseth à Bienne, en Suisse. " La science et la philosophie forment un seul corps ", affirmait-elle dans ses valeurs fondatrices, " et tout ce qui se passe dans la science, que ce soit dans ses méthodes ou dans ses résultats, peut avoir des répercussions sur la philosophie jusque dans ses principes les plus fondamentaux. " C’était une déclaration radicale, tout aussi choquante pour la science que pour la philosophie. L’association publiait un bulletin clandestin intitulé Epistemological Letters , une sorte de " zine " de physique, avec des pages dactylographiées et ronéotypées parsemées d’équations dessinées à la main, qui était envoyé par courrier à une centaine de physiciens et philosophes qui constituaient une nouvelle contre-culture – les quelques audacieux qui voulaient discuter de métaphysique expérimentale. Shimony en était le rédacteur en chef.

Le théorème de Bell a toujours été au centre de ces discussions, car là où les travaux antérieurs en physique laissaient de côté leur métaphysique, dans le travail de Bell, les deux étaient véritablement et explicitement indissociables. Le théorème ne concernait aucune théorie particulière de la physique. C'était ce que les physiciens appellent un théorème " d'interdiction", une preuve générale montrant qu'aucune théorie fonctionnant sous les hypothèses métaphysiques de localité et de réalisme ne peut décrire le monde dans lequel nous vivons. Vous voulez un monde qui soit juste d'une certaine manière, même lorsqu'il n'est pas mesuré ? Et vous voulez de la localité ? Pas question. Ou, comme l'a dit Shimony dans Epistemological Letters , dans un jeu de mots sur le nom de Bell, ceux qui veulent défendre une telle vision du monde " devraient se souvenir du sermon de Donne :   Et donc n'envoyez jamais demander pour qui sonne le glas ; il sonne pour vous. "

" Bell était à la fois un philosophe de la physique et un physicien ", a déclaré Wayne Myrvold , philosophe de la physique à l’Université Western au Canada. "Et dans certains de ses meilleurs articles, il combine essentiellement les deux. " Cela a ébranlé les rédacteurs en chef des revues de physique traditionnelles et d’autres gardiens de la science. " Ce genre de travail n’était définitivement pas considéré comme respectable ", a déclaré Cavalcanti.

C'est pourquoi, lorsque le physicien français Alain Aspect a proposé à Bell une nouvelle expérience qui permettrait de tester l'inégalité de Bell tout en excluant toute influence résiduelle se propageant entre les appareils de mesure utilisés pour détecter la polarisation des photons, Bell lui a demandé s'il avait un poste permanent de professeur. " Nous craignions que cette expérience ne ruine la carrière d'un jeune physicien ", a déclaré Myrvold.

En 2022, Aspect, Clauser et Anton Zeilinger se rendent à Stockholm pour recevoir le prix Nobel. Les corrélations de Bell, qui violent les inégalités, ont conduit à des technologies révolutionnaires, notamment la cryptographie quantique, l’informatique quantique et la téléportation quantique. Mais " malgré les avantages technologiques ", a déclaré Myrvold, " le travail était motivé par des questions philosophiques ". Selon la citation du Nobel, les trois physiciens ont été récompensés pour " avoir été des pionniers de la science de l’information quantique ". Selon Cavalcanti, ils ont gagné pour la métaphysique expérimentale.

LE THÉORÈME DE BELL n'était que le début.

À la suite d’expériences violant les inégalités de type Bell, plusieurs conceptions de la réalité sont restées sur la table. On pouvait conserver le réalisme et abandonner la notion de localité, en acceptant que ce qui se passe dans un coin de l’univers affecte instantanément ce qui se passe dans un autre et que, par conséquent, la relativité doit être modifiée. Ou bien on pouvait conserver la notion de localité et abandonner le réalisme, en acceptant que les choses dans l’univers n’ont pas de caractéristiques définies avant d’être mesurées – que la nature, dans un sens profond, invente des choses à la volée.

Mais même si vous abandonnez la réalité pré-mesure, vous pouvez toujours vous accrocher à la réalité post-mesure. Autrement dit, vous pouvez imaginer prendre tous ces résultats de mesure et les rassembler en une seule réalité partagée. C'est généralement ce que nous entendons par " réalité ". C'est la notion même d'un monde objectif.

Une expérience de pensée réalisée en 1961 jette le doute sur cette possibilité. Eugene Wigner, le physicien lauréat du prix Nobel, a proposé un scénario dans lequel un observateur, qu'on appelle " l'ami de Wigner ", se rend dans un laboratoire où se trouve un système quantique, par exemple un électron dans une combinaison quantique, ou superposition, de deux états appelés " spin up " et " spin down ". L'ami mesure le spin de l'électron et constate qu'il est up. Mais Wigner, debout à l'extérieur, peut utiliser la mécanique quantique pour décrire l'état complet du laboratoire, où, de son point de vue, aucune mesure n'a eu lieu. L'état de l'ami et l'état de l'électron sont simplement corrélés – intriqués – tandis que l'électron reste dans une superposition d'états. En principe, Wigner peut même effectuer une mesure qui montrera les effets physiques de la superposition. Du point de vue de l'ami, l'électron a un état post-mesure, mais cela ne semble pas faire partie de la réalité de Wigner.

En 2018, ce doute persistant sur une réalité commune est devenu un véritable dilemme. Časlav Brukner , physicien à l'université de Vienne, s'est rendu compte qu'il pouvait combiner l'expérience de type Bell avec celle de l'ami de Wigner pour prouver un nouveau théorème de non-retour. L'idée était d'avoir deux amis et deux Wigner ; les amis mesurent chacun la moitié d'un système intriqué, puis chacun des Wigner effectue l'une des deux mesures possibles dans le laboratoire de son ami. Les résultats des mesures des Wigner seront corrélés, tout comme les polarisations des photons dans les expériences originales de type Bell, avec certaines hypothèses métaphysiques imposant des limites supérieures à la force de ces corrélations.

Il s’est avéré que la preuve de Brukner reposait sur une hypothèse supplémentaire qui affaiblissait la force du théorème résultant, mais elle a inspiré Cavalcanti et ses collègues à créer leur propre version. En 2020, dans la revue Nature Physics , ils ont publié " A Strong No-Go Theorem on the Wigner’s Friend Paradox ", qui a prouvé deux choses. Premièrement, que la métaphysique expérimentale, auparavant reléguée dans des zines underground, est désormais digne de revues scientifiques prestigieuses, et deuxièmement, que la réalité est encore plus étrange que ce que le théorème de Bell a jamais suggéré.

Leur théorème de non-retour a montré que, si les prédictions de la mécanique quantique sont correctes, les trois hypothèses suivantes ne peuvent pas toutes être vraies : la localité (pas d'action étrange à distance), la liberté de choix (pas de conspiration cosmique vous incitant à régler vos détecteurs de telle sorte que les résultats semblent violer l'inégalité de Bell même si ce n'est pas le cas) et l'absoluité des événements observés (un électron avec un spin up pour l'ami de Wigner est un électron avec un spin up pour tout le monde). Si vous voulez des interactions locales et un cosmos sans conspiration, alors vous devez abandonner l'idée qu'un résultat de mesure pour un observateur est un résultat de mesure pour tous.

Il est significatif que leur théorème de non-droit " limite l’espace des théories métaphysiques possibles plus étroitement que le théorème de Bell ", a déclaré Cavalcanti.

" C’est une amélioration importante ", a déclaré Brukner. " C’est le théorème de non-entrée le plus précis et le plus solide. " C’est-à-dire qu’il s’agit de la métaphysique expérimentale la plus puissante à ce jour. " La force de ces théorèmes de non-entrée est précisément qu’ils ne testent pas une théorie particulière, mais une vision du monde. En les testant et en montrant les violations de certaines inégalités, nous ne rejetons pas une théorie, mais toute une classe de théories. C’est une chose très puissante. Cela nous permet de comprendre ce qui est possible. "

Brukner déplore que les implications de la métaphysique expérimentale n’aient pas encore été pleinement intégrées au reste de la physique en général – en particulier, selon lui, au détriment de la recherche sur la nature quantique de la gravité. " C’est vraiment dommage, car nous nous retrouvons avec des images erronées de ce à quoi ressemble le vide ou de ce qui se passe dans un trou noir, par exemple, alors que ces images sont décrites sans aucune référence aux modes d’observation ", a-t-il déclaré. " Je ne pense pas que nous ferons des progrès significatifs dans ces domaines tant que nous n’aurons pas vraiment travaillé sur la théorie de la mesure. "

On ne sait pas si la métaphysique expérimentale pourra un jour nous conduire à la théorie correcte de la gravité quantique, mais elle pourrait au moins réduire les chances de réussite. " Il y a une histoire, je ne sais pas si elle est apocryphe, mais elle est belle ", a écrit Cavalcanti dans un article de 2021 , selon laquelle Michel-Ange, lorsqu’on lui a demandé comment il avait sculpté David, a dit : " J’ai juste enlevé tout ce qui n’était pas David. " J’aime penser au paysage métaphysique comme au bloc de marbre brut – avec différents points du bloc correspondant à différentes théories physiques – et à la métaphysique expérimentale comme à un ciseau pour sculpter le marbre, en éliminant les coins qui ne décrivent pas le monde de notre expérience. Il se peut que nous soyons incapables de réduire le bloc à un seul point, correspondant à la seule véritable " théorie de tout ". Mais nous pouvons espérer qu’après avoir sculpté tous les morceaux que l’expérience nous permet de sculpter, ce qui reste forme un bel ensemble. "

Tandis que je parlais avec Cavalcanti, j’essayais de comprendre à quelle interprétation de la mécanique quantique il adhérait en déterminant les hypothèses métaphysiques auxquelles il espérait s’accrocher et celles qu’il était prêt à abandonner. Était-il d’accord avec l’ interprétation bohémienne de la mécanique quantique, qui échange la localité contre le réalisme ? Était-il un [a https://www.quantamagazine.org/quantum-bayesianism-explained-by-its-founder-20150604/ ]" QBiste "[/a], sans besoin de l’absoluité des événements observés ? Croyait-il aux conspirations cosmiques des superdéterministes , qui attribuent toutes les mesures corrélées dans l’univers actuel à un plan directeur établi au début des temps ? Et que dire des mesures engendrant des réalités parallèles, comme dans l’ hypothèse des mondes multiples ? Cavalcanti gardait le visage impassible d’un vrai philosophe ; il ne voulait rien dire. (Le chiot, pendant ce temps, se livrait à une lutte acharnée contre le tapis.) J’ai cependant saisi un indice. Quelle que soit l’interprétation qu’il choisira, il souhaite qu’elle touche au mystère de l’esprit – ce qu’est la conscience ou ce que l’on entend par observateur conscient. " Je pense toujours que c’est le mystère le plus profond ", a-t-il déclaré. " Je ne pense pas qu’aucune des interprétations disponibles ne parvienne réellement à la bonne histoire. "

Dans leur article de 2020 dans Nature Physics , Cavalcanti et ses collègues ont rapporté les résultats de ce qu’ils ont appelé une " version de démonstration de principe " de leur expérience Bell-cum-Wigner’s-friend, qui a montré une violation claire des inégalités dérivées des hypothèses conjointes de localité, de liberté de choix et d’absoluité des événements observés. Mais l’expérience est intrinsèquement délicate à réaliser, car quelque chose – ou quelqu’un – doit jouer le rôle d’observateur. Dans la version de démonstration de principe, les " amis " de Wigner étaient joués par les trajectoires de photons, tandis que les détecteurs de photons jouaient le rôle des Wigner. Il est notoirement difficile de dire si quelque chose d’aussi simple qu’une trajectoire de photon compte comme un observateur.

" Si vous pensez que n’importe quel système physique peut être considéré comme un observateur, alors l’expérience a déjà été réalisée ", a déclaré Cavalcanti.  Mais la plupart des physiciens diront : " Non, je n’y crois pas. Alors, quelles sont les prochaines étapes ? Jusqu’où pouvons-nous aller ? " Une molécule est-elle un observateur ? Une amibe ? Wigner pourrait-il être ami avec une figue ? Ou un ficus ?

Si l’ami doit être humain, il est difficile de surestimer à quel point il serait difficile de mesurer un atome dans une superposition, ce qui est exactement ce que les Wigner de l’expérience sont censés faire. Il est déjà assez difficile de maintenir un atome dans une superposition. Maintenir les états superposés d’un atome signifie l’isoler de pratiquement toutes les interactions – y compris les interactions avec l’air – ce qui signifie le stocker à un cheveu au-dessus du zéro absolu. L’être humain adulte moyen, en plus d’avoir besoin d’air, est composé de quelque 30 000 milliards de cellules, chacune contenant environ 100 000 milliards d’atomes. La technologie, la motricité fine et l’éthique douteuse dont un Wigner aurait besoin pour effectuer sa mesure mettraient à rude épreuve l’imagination de n’importe quel physicien ou comité d’évaluation institutionnel. " On ne souligne pas toujours que cette expérience [proposée] est un acte violent ", a déclaré Myrvold. " Il s’agit essentiellement de détruire la personne puis de la réanimer. " Bonne chance pour obtenir la subvention pour cela.

Brukner, pour sa part, se demande si la mesure n’est pas seulement difficile, mais impossible. " Je pense que si nous mettons tout cela sur papier, nous verrons que les ressources nécessaires à Wigner pour effectuer cette mesure vont bien au-delà de ce qui est disponible dans l’univers ", a-t-il déclaré. " Peut-être que dans une théorie plus fondamentale, ces limitations feront partie de la théorie, et il s’avérera que cette question n’a aucun sens. " Ce serait un véritable tournant pour la métaphysique expérimentale. Peut-être que nos plus profondes intuitions sur la nature de la réalité viendront lorsque nous réaliserons ce qui n’est pas testable.

Cavalcanti garde cependant espoir. Nous ne pourrons peut-être jamais mener l’expérience sur un humain, dit-il, mais pourquoi pas un algorithme d’intelligence artificielle ? Dans son dernier ouvrage , en collaboration avec le physicien Howard Wiseman et la mathématicienne Eleanor Rieffel , il soutient que l’ami pourrait être un algorithme d’intelligence artificielle exécuté sur un grand ordinateur quantique, effectuant une expérience simulée dans un laboratoire simulé. " À un moment donné ", soutient Cavalcanti, " nous aurons une intelligence artificielle qui sera essentiellement impossible à distinguer de l’humain en ce qui concerne les capacités cognitives ", et nous pourrons tester son inégalité une fois pour toutes.

Mais cette hypothèse n’est pas sans controverse. Certains philosophes de l’esprit croient en la possibilité d’une IA forte, mais certainement pas tous. Les penseurs de ce que l’on appelle la cognition incarnée, par exemple, s’opposent à la notion d’esprit désincarné, tandis que l’approche énactive de la cognition n’accorde l’esprit qu’aux créatures vivantes.

Tout cela place la physique dans une position délicate. Nous ne pouvons pas savoir si la nature viole l’inégalité de Cavalcanti – nous ne pouvons pas savoir, en d’autres termes, si l’objectivité elle-même est sur le billot métaphysique – tant que nous ne pouvons pas définir ce qui compte comme observateur, et pour cela, il faut faire appel à la physique, aux sciences cognitives et à la philosophie. L’espace radical de la métaphysique expérimentale s’élargit pour les entrelacer toutes les trois. Pour paraphraser Gonseth, peut-être qu’elles forment un tout unique. 

Auteur: Internet

Info: Quanta Magazine, Amanda Gefter, 30 juillet 2024 - https://www.quantamagazine.org/metaphysical-experiments-test-hidden-assumptions-about-reality-20240730/?mc_cid=48655a0431&mc_eid=78bedba296

[ tétravalence ] [ observateur défini ] [ désir de conclure ] [ questions ] [ solipsisme de la monade grégaire anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel