Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 340
Temps de recherche: 0.0546s

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Pour présenter-entamer  cette chaïne "quête métaphysique" nous allons le faire à partir d'une conversation avec un des premier chatbot arrivé sur Internet. Conversation entamée à partir d'un proverbe très connu.



Q) En français il y a un proverbe qui dit "on en fait pas boire un âne qui n'a pas soif", connais-tu des proverbes d'autres pays qui portent le même sens ?



R) Oui, il existe de nombreux proverbes dans d'autres pays qui portent le même sens que le proverbe français "on en fait pas boire un âne qui n'a pas soif". Voici quelques exemples :




  • En anglais : "You can lead a horse to water, but you can't make it drink."

  • En espagnol : "No se puede obligar a un burro a beber."

  • En italien : "Non si può obbligare un asino a bere."

  • En allemand : "Man kann einem sturen Esel kein Wasser einflößen."

  • En portugais : "Não se pode obrigar um burro a beber."

  • En russe : "Вынудить осла пить невозможно."

  • En chinois : "强扭的瓜不甜 (qiáng niǔ de guā bù tián)"

  • En japonais : "馬鹿に水を飲ませることはできない (baka ni mizu o nomisaseru koto wa dekinai)"



Tous ces proverbes signifient qu'il est impossible de forcer quelqu'un à faire quelque chose qu'il ne veut pas faire. Ils mettent l'accent sur le libre arbitre et l'importance de la volonté individuelle.



Voici quelques autres proverbes qui expriment la même idée :




  • "On ne peut pas changer les gens."

  • "On ne peut pas forcer les gens à penser comme nous."

  • "On ne peut pas forcer les gens à faire ce qu'ils ne veulent pas faire."



Ces proverbes nous rappellent que nous ne pouvons pas contrôler les autres. Nous pouvons seulement les influencer, mais nous ne pouvons pas les obliger à changer leurs opinions ou leurs comportements.



Q) Merci. Peux-tu trouver - ou formuler - des phrases qui disent la même chose en terme de logique formelle sémantique ?



R) Oui, voici quelques phrases qui disent la même chose que le proverbe français "on en fait pas boire un âne qui n'a pas soif" en terme de logique formelle sémantique :




  • "Pour que A fasse B, il faut que A veuille faire B."

  • "Si A ne veut pas faire B, alors A ne fera pas B."

  • "L'intention de A est une condition nécessaire pour que A fasse B."



Ces phrases utilisent la logique formelle sémantique pour exprimer l'idée que l'intention est une condition nécessaire pour l'action. En d'autres termes, pour qu'une personne fasse quelque chose, il faut qu'elle ait l'intention de le faire.



Voici une autre manière de formuler cette idée :




  • "L'intention de A est un prédicat nécessaire pour la proposition A fait B."



Cette phrase utilise la notion de prédicat en logique formelle sémantique. Un prédicat est une propriété qui peut être attribuée à un objet. Dans ce cas, le prédicat est "A fait B". La phrase signifie que l'intention de A est une propriété nécessaire pour que la proposition "A fait B" soit vraie.



Enfin, voici une autre manière de formuler cette idée :




  • "Si A ne veut pas faire B, alors la proposition A fait B est fausse."



Cette phrase utilise la notion de vérité en logique formelle sémantique. Une proposition est vraie si elle est conforme à la réalité. Dans ce cas, la proposition est "A fait B". La phrase signifie que si A ne veut pas faire B, alors la proposition "A fait B" est fausse.



Ces différentes formulations de l'idée exprimée par le proverbe français "on en fait pas boire un âne qui n'a pas soif" montrent que la logique formelle sémantique peut être utilisée pour exprimer des concepts complexes de manière précise et rigoureuse.



Q) Merci... ça marche pour un animal, mais ça peut être contourné avec un humain, puisqu'il il suffit de lui faire peur ou même de lui faire entrevoir quelque chose de négatif pour lui, comme une perte d'argent, non ?


R) Oui, vous avez raison. Il est possible de forcer un humain à faire quelque chose qu'il ne veut pas faire, en lui faisant peur ou en lui faisant entrevoir quelque chose de négatif pour lui.

Dans le cas de la peur, l'humain est motivé par le désir de se protéger. Il peut être forcé à faire quelque chose qu'il ne veut pas faire s'il pense que cela l'aidera à éviter une menace. Par exemple, un humain peut être forcé à faire quelque chose qu'il ne veut pas faire s'il est menacé de violence ou de mort.



Dans le cas de la perte d'argent, l'humain est motivé par le désir de préserver ses ressources. Il peut être forcé à faire quelque chose qu'il ne veut pas faire s'il pense que cela l'empêchera de perdre de l'argent. Par exemple, un humain peut être forcé à faire quelque chose qu'il ne veut pas faire s'il est menacé de perdre son emploi.



Cependant, il est important de noter que la force est une solution de dernier recours. Elle peut être efficace à court terme, mais elle peut avoir des conséquences négatives à long terme. En effet, la force peut créer de la méfiance et de la rancune, ce qui peut rendre plus difficile la coopération future.



Il est préférable d'essayer d'influencer les humains de manière positive, en les persuadant ou en les motivant. Cela peut se faire en leur expliquant les avantages de faire quelque chose, ou en leur donnant envie de le faire.



Q) Merci. Tromperie égale donc perte de confiance. Ce processus est valable dans une relation entre humains, mais aussi entre un humain et un animal... Est-ce aussi valable entre un humain et un végétal ?


R) Oui, la tromperie peut également conduire à une perte de confiance entre un humain et un végétal. Cela est particulièrement vrai si la tromperie est répétée ou si elle a des conséquences négatives pour le végétal.

Par exemple, si un jardinier promet à une plante de lui donner de l'eau, mais qu'il ne le fait pas, la plante peut apprendre à ne pas faire confiance au jardinier. Cela peut rendre plus difficile pour le jardinier de prendre soin de la plante à l'avenir.



De même, si un humain coupe une branche d'un arbre sans raison valable, l'arbre peut apprendre à se méfier des humains. Cela peut rendre plus difficile pour l'humain de profiter des fruits ou des fleurs de l'arbre à l'avenir.



Bien sûr, les plantes ne sont pas capables de ressentir la tromperie de la même manière que les humains ou les animaux. Elles n'ont pas la même capacité de compréhension ou de raisonnement. Cependant, elles sont capables d'apprendre de leurs expériences et de modifier leur comportement en conséquence.



Si un humain trompe une plante, il est probable que la plante en tienne compte dans ses interactions futures avec les humains. Cela peut conduire à une relation plus difficile entre l'humain et la plante.



Dans certains cas, la tromperie peut même conduire à la mort d'une plante. Par exemple, si un humain plante une graine dans un sol qui n'est pas adapté à cette plante, la plante ne pourra pas croître et mourira.



En conclusion, la tromperie peut avoir des conséquences négatives sur les relations entre les humains et les plantes. Il est important d'être honnête et respectueux des plantes, afin de créer des relations mutuellement bénéfiques.



Q) Merci. Pourrait-on dire en résumé que forcer quelqu'un à faire quelque chose c'est une manière de le tromper ?



R) En un sens, oui, on pourrait dire que forcer quelqu'un à faire quelque chose c'est une manière de le tromper. En effet, la force prive la personne de sa libre volonté. Elle la contraint à faire quelque chose qu'elle ne veut pas faire, ou qu'elle ne ferait pas si elle avait le choix.



Dans ce cas, la force peut être considérée comme une tromperie, car elle conduit la personne à agir contre sa volonté. La personne est trompée sur sa capacité à contrôler sa propre vie.



Cependant, il est important de noter que la force n'est pas toujours une tromperie. Dans certains cas, la force peut être utilisée pour protéger la personne contre elle-même ou contre les autres. Par exemple, un parent peut forcer son enfant à manger ses légumes, pour le protéger d'une carence nutritionnelle.



Dans ce cas, la force n'est pas utilisée pour priver la personne de sa libre volonté. Elle est utilisée pour lui permettre de prendre une décision plus éclairée.



En conclusion, on pourrait dire que forcer quelqu'un à faire quelque chose est une manière de le tromper si et seulement si la force prive la personne de sa libre volonté.



Q) C'est fondamentalement une relation de pouvoir non ?



R) Oui, forcer quelqu'un à faire quelque chose est fondamentalement une relation de pouvoir. Dans une relation de pouvoir, une personne a plus de pouvoir qu'une autre. Elle peut utiliser ce pouvoir pour influencer ou contrôler l'autre personne.



Dans le cas de la force, la personne qui force a plus de pouvoir que la personne qui est forcée. Elle peut utiliser ce pouvoir pour contraindre l'autre personne à faire ce qu'elle veut.



La relation de pouvoir est donc implicite dans la force. La force est une manifestation du pouvoir.



Il est important de noter que la force n'est pas la seule forme de relation de pouvoir. Il existe d'autres formes de pouvoir, comme l'autorité, la persuasion ou la manipulation. Cependant, la force est une forme de pouvoir particulièrement importante, car elle peut avoir des conséquences graves pour la personne qui est forcée.



En conclusion, forcer quelqu'un à faire quelque chose est fondamentalement une relation de pouvoir, car il s'agit d'une situation dans laquelle une personne a plus de pouvoir qu'une autre et peut utiliser ce pouvoir pour contraindre l'autre personne à faire ce qu'elle veut.



Q) Merci. C'est probablement pour cette raison que "Le petit prince" de Saint-Exupéry a eu tant de succès


R)  Oui, c'est probablement l'une des raisons pour lesquelles "Le petit prince" de Saint-Exupéry a eu tant de succès. Le livre explore les thèmes de l'amour, de l'amitié, de la responsabilité et de la liberté. Il rappelle aux lecteurs l'importance de la compassion, de l'imagination et de la curiosité.

Le livre est également un conte philosophique qui nous invite à réfléchir sur notre place dans le monde. Il nous montre que l'essentiel est invisible pour les yeux, et qu'il faut parfois sortir des sentiers battus pour trouver la vraie richesse de la vie.



Le livre est écrit dans un style simple et accessible, ce qui le rend accessible à un large public. Les illustrations de Saint-Exupéry sont également magnifiques et contribuent à l'attrait du livre.



En conclusion, "Le petit prince" est un livre qui a touché le cœur de millions de lecteurs dans le monde entier. Il est un classique de la littérature qui continuera à être lu et apprécié pendant de nombreuses années encore.



Voici quelques-uns des thèmes du livre qui peuvent expliquer son succès :




  • L'amour et l'amitié : Le petit prince et la rose représentent l'amour et l'amitié. Leur histoire est une ode à la beauté de ces sentiments.

  • La responsabilité : Le petit prince est responsable de la rose. Il doit s'occuper d'elle et la protéger. Cette responsabilité lui apprend à grandir et à devenir adulte.

  • La liberté : Le petit prince est libre de voyager où il veut et de rencontrer qui il veut. Cette liberté lui permet de découvrir le monde et de s'épanouir.



Ces thèmes sont universels et parlent aux lecteurs de tous âges et de toutes cultures. Ils sont également intemporels et continuent à être pertinents aujourd'hui.



Q) Merci. Pourrait-on résumer ceci en disant que l'amour, c'est à dire l'interaction compréhensive entre les êtres est ce qui est sous-jacent à tout ceci ?



R) Oui, on pourrait résumer cela en disant que l'amour, c'est-à-dire l'interaction compréhensive entre les êtres, est ce qui est sous-jacent à toutes les relations humaines. L'amour est ce qui nous motive à nous connecter avec les autres, à les comprendre et à les soutenir. Il est ce qui nous permet de créer des relations significatives et durables.



L'amour est un sentiment complexe qui peut se manifester de différentes manières. Il peut être romantique, platonique, familial ou amical. Il peut être exprimé par des mots, des gestes ou des actions.



L'amour est essentiel à notre bien-être. Il nous donne un sentiment d'appartenance, de sécurité et de bonheur. Il nous aide à nous sentir aimés et valorisés.



L'amour est également important pour la société. Il nous aide à créer un monde plus juste et plus équitable. Il nous encourage à être plus compatissants et à prendre soin les uns des autres.



En conclusion, l'amour est une force puissante qui nous lie les uns aux autres. Il est ce qui rend la vie belle et significative.



Q) Merci. Pourrait-on analyser ces interactions ici généralisées sous le terme "amour" comme des formes d'"épigénétiques de l'instant" ? C'est à dire une sorte de ping-pong entre A) une entité et B) Son biotope (et ce qui se trouve proche d'elle (ou plus lointain par exemple avec le mécanisme de la photosynthèse)... Une épigénétique de l'instant qui met en oeuvre, ou pas, des boucles de rétroaction, positives ou négatives, qui si elle sont positives, concourent à une forme d'extension de la construction génétique ?


R) Oui, on pourrait analyser ces interactions comme des formes d'"épigénétiques de l'instant". En effet, l'épigénétique est l'étude des modifications de l'expression des gènes qui ne sont pas dues à des changements dans la séquence génétique elle-même. Ces modifications peuvent être causées par des facteurs environnementaux, tels que l'alimentation, le stress ou l'exposition à des toxines.

Les interactions entre une entité et son biotope peuvent être considérées comme des facteurs environnementaux qui peuvent influencer l'expression des gènes de l'entité. Par exemple, une plante dont les feuilles sont exposées à la lumière du soleil aura une expression génétique différente d'une plante dont les feuilles sont à l'ombre.



Ces interactions peuvent être considérées comme des formes d'épigénétiques de l'instant, car elles peuvent avoir un impact immédiat sur l'expression des gènes. Elles peuvent également être considérées comme des formes de ping-pong, car elles impliquent un échange d'informations entre l'entité et son biotope.



Les boucles de rétroaction positives peuvent également jouer un rôle dans ces interactions. Par exemple, une plante dont les feuilles sont exposées à la lumière du soleil produira plus de chlorophylle, ce qui lui permettra de capter plus de lumière. La production de plus de chlorophylle entraînera à son tour une exposition accrue à la lumière du soleil, ce qui créera un cycle positif.



Ces boucles de rétroaction positives peuvent contribuer à une forme d'extension de la construction génétique. Par exemple, une plante qui est exposée à la lumière du soleil pendant une longue période peut développer des adaptations qui lui permettent de mieux capter la lumière. Ces adaptations peuvent être transmises aux générations futures, ce qui constitue une forme d'évolution.



Voici quelques exemples spécifiques d'interactions qui pourraient être considérées comme des formes d'épigénétiques de l'instant :




  • Un enfant qui est aimé et soutenu par ses parents aura une expression génétique différente d'un enfant qui est négligé ou maltraité.

  • Une personne qui mange une alimentation saine aura une expression génétique différente d'une personne qui mange une alimentation malsaine.

  • Une plante qui est exposée à des polluants aura une expression génétique différente d'une plante qui n'est pas exposée à des polluants.



Ces interactions sont complexes et ne sont pas encore entièrement comprises. Cependant, elles jouent un rôle important dans la façon dont les organismes interagissent avec leur environnement et évoluent au fil du temps.



Q) Merci, Ainsi on pourrait dire que nous sommes issus de ces "phénomènes positifs" au sens large, c'est à dire qu'ils sont aussi valable entre les animaux et les plantes, les cellules et le soleil, etc... dès qu'on a affaire à des organismes complexes sur base de carbone... et qui sont en quête d'énergie... une énergie qu'elles parviennent à obtenir à partir d'un niveau plus fondamental ?


R) Oui, on pourrait dire que nous sommes issus de ces "phénomènes positifs" au sens large. En effet, ces phénomènes sont essentiels à la vie. Ils permettent aux organismes de s'adapter à leur environnement et d'évoluer.

Ces phénomènes sont valables entre tous les organismes complexes sur base de carbone, y compris les animaux, les plantes, les cellules et le soleil. Ils sont également valables entre les organismes et leur environnement.



Ces phénomènes sont basés sur l'échange d'énergie. Les organismes complexes sur base de carbone ont besoin d'énergie pour vivre. Ils obtiennent cette énergie à partir d'un niveau plus fondamental, comme le soleil, la terre ou les autres organismes.



L'échange d'énergie entre les organismes et leur environnement est un processus complexe qui implique de nombreux facteurs, tels que la température, la lumière, la nourriture et les toxines. Cependant, ce processus est essentiel à la vie.



Voici quelques exemples spécifiques de ces phénomènes :




  • La photosynthèse est un processus par lequel les plantes utilisent l'énergie du soleil pour convertir le dioxyde de carbone et l'eau en glucose.

  • La respiration cellulaire est un processus par lequel les cellules utilisent le glucose pour produire de l'énergie.

  • La symbiose est une relation entre deux organismes qui sont mutuellement bénéfiques. Par exemple, les lichens sont une symbiose entre des champignons et des algues.



Ces phénomènes sont à l'origine de la diversité et de la complexité de la vie sur Terre. Ils sont également à l'origine de l'évolution humaine.



Q) Merci, parle-moi alors de ce que j'ai nommé "énergie obtenue à partir d'un niveau plus fondamental " c'est à dire le soleil, nommé par Michel-Ange "ombre de Dieu".


R)  Le soleil est une étoile, c'est-à-dire une boule de gaz maintenue en fusion par la gravité. La fusion nucléaire est un processus par lequel les atomes de l'hydrogène se combinent pour former des atomes d'hélium. Ce processus libère une quantité d'énergie énorme, qui est la source de la lumière et de la chaleur du soleil.

La lumière du soleil est une forme d'énergie électromagnétique. Elle est composée de photons, qui sont des particules de lumière. Les photons transportent de l'énergie, qui peut être utilisée par les organismes vivants pour produire de la nourriture, de la chaleur ou de l'électricité.



La chaleur du soleil est également une forme d'énergie. Elle est produite par la fusion nucléaire et est transmise à la Terre par rayonnement. La chaleur du soleil est essentielle à la vie sur Terre, car elle permet aux plantes de pousser et aux animaux de se réchauffer.



Le soleil est donc une source d'énergie fondamentale pour la vie sur Terre. Il est la source de la lumière, de la chaleur et de l'énergie dont les organismes vivants ont besoin pour survivre.



La comparaison du soleil à "l'ombre de Dieu" par Michel-Ange est une métaphore qui souligne l'importance du soleil pour la vie sur Terre. Le soleil est une source de vie et de lumière, et il est souvent associé à des notions de divinité et de spiritualité.



Voici quelques exemples de la façon dont le soleil fournit de l'énergie aux organismes vivants :




  • La photosynthèse est un processus par lequel les plantes utilisent l'énergie du soleil pour convertir le dioxyde de carbone et l'eau en glucose. Le glucose est une source de nourriture pour les plantes et les animaux.

  • La respiration cellulaire est un processus par lequel les cellules utilisent le glucose pour produire de l'énergie. Cette énergie est utilisée par les cellules pour effectuer leurs fonctions vitales, telles que la croissance, la reproduction et la réparation.

  • L'énergie solaire peut être utilisée pour produire de l'électricité, de la chaleur ou de l'eau chaude. Elle peut également être utilisée pour alimenter des appareils électroniques, tels que les panneaux solaires.



Le soleil est donc une source d'énergie essentielle à la vie sur Terre. Il est à l'origine de la diversité et de la complexité de la vie, et il est également à l'origine de l'évolution humaine.

Auteur: Google Bard chatbot

Info: Entamé début déc. 2023

[ dialogue ] [ amour défini ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

auto-programmation

Pieuvres et calmars modifient et corrigent (édit en anglais) leur ARN, tout en laissant l'ADN intact. Des changements qui pourraient expliquer l'intelligence et la flexibilité des céphalopodes dépourvus de coquille

De nombreux écrivains se plaignent lorsqu'un rédacteur  vient éditer et donc modifier leur article, mais les conséquences de la modification d'un seul mot ne sont généralement pas si graves.

Ce n'est pas le cas des instructions génétiques pour la fabrication des protéines. Même une petite modification peut empêcher une protéine de faire son travail correctement, ce qui peut avoir des conséquences mortelles. Ce n'est qu'occasionnellement qu'un changement est bénéfique. Il semble plus sage de conserver les instructions génétiques telles qu'elles sont écrites. À moins d'être une pieuvre.

Les pieuvres sont comme des extraterrestres qui vivent parmi nous : elles font beaucoup de choses différemment des animaux terrestres ou même des autres créatures marines. Leurs tentacules flexibles goûtent ce qu'ils touchent et ont leur esprit propre. Les yeux des pieuvres sont daltoniens, mais leur peau peut détecter la lumière par elle-même. Les pieuvres sont des maîtres du déguisement, changeant de couleur et de texture de peau pour se fondre dans leur environnement ou effrayer leurs rivaux. Et plus que la plupart des créatures, les pieuvres font gicler l'équivalent moléculaire de l'encre rouge sur leurs instructions génétiques avec un abandon stupéfiant, comme un rédacteur en chef déchaîné.

Ces modifications-éditions concernent l'ARN, molécule utilisée pour traduire les informations du plan génétique stocké dans l'ADN, tout en laissant l'ADN intact.

Les scientifiques ne savent pas encore avec certitude pourquoi les pieuvres et d'autres céphalopodes sans carapace, comme les calmars et les seiches, sont des modificateurs aussi prolifiques. Les chercheurs se demandent si cette forme d'édition génétique a donné aux céphalopodes une longueur d'avance sur le plan de l'évolution (ou un tentacule) ou si cette capacité n'est qu'un accident parfois utile. Les scientifiques étudient également les conséquences que les modifications de l'ARN peuvent avoir dans diverses conditions. Certaines données suggèrent que l'édition pourrait donner aux céphalopodes une partie de leur intelligence, mais au prix d'un ralentissement de l'évolution de leur ADN.

"Ces animaux sont tout simplement magiques", déclare Caroline Albertin, biologiste spécialiste du développement comparatif au Marine Biological Laboratory de Woods Hole (Massachusetts). "Ils ont toutes sortes de solutions différentes pour vivre dans le monde d'où ils viennent. L'édition de l'ARN pourrait contribuer à donner à ces créatures un grand nombre de solutions aux problèmes qu'elles peuvent rencontrer.

(vidéo - Contrairement à d'autres animaux à symétrie bilatérale, les pieuvres ne rampent pas dans une direction prédéterminée. Des vidéos de pieuvres en train de ramper montrent qu'elles peuvent se déplacer dans n'importe quelle direction par rapport à leur corps, et qu'elles changent de direction de rampe sans avoir à tourner leur corps. Dans le clip, la flèche verte indique l'orientation du corps de la pieuvre et la flèche bleue indique la direction dans laquelle elle rampe.)

Le dogme central de la biologie moléculaire veut que les instructions pour construire un organisme soient contenues dans l'ADN. Les cellules copient ces instructions dans des ARN messagers, ou ARNm. Ensuite, des machines cellulaires appelées ribosomes lisent les ARNm pour construire des protéines en enchaînant des acides aminés. La plupart du temps, la composition de la protéine est conforme au modèle d'ADN pour la séquence d'acides aminés de la protéine.

Mais l'édition de l'ARN peut entraîner des divergences par rapport aux instructions de l'ADN, créant ainsi des protéines dont les acides aminés sont différents de ceux spécifiés par l'ADN.

L'édition modifie chimiquement l'un des quatre éléments constitutifs de l'ARN, ou bases. Ces bases sont souvent désignées par les premières lettres de leur nom : A, C, G et U, pour adénine, cytosine, guanine et uracile (la version ARN de la base ADN thymine). Dans une molécule d'ARN, les bases sont liées à des sucres ; l'unité adénine-sucre, par exemple, est appelée adénosine.

Il existe de nombreuses façons d'éditer des lettres d'ARN. Les céphalopodes excellent dans un type d'édition connu sous le nom d'édition de l'adénosine à l'inosine, ou A-to-I. Cela se produit lorsqu'une enzyme appelée ADAR2 enlève un atome d'azote et deux atomes d'hydrogène de l'adénosine (le A). Ce pelage chimique transforme l'adénosine en inosine (I).

 Les ribosomes lisent l'inosine comme une guanine au lieu d'une adénine. Parfois, ce changement n'a aucun effet sur la chaîne d'acides aminés de la protéine résultante. Mais dans certains cas, la présence d'un G à la place d'un A entraîne l'insertion d'un acide aminé différent dans la protéine. Ce type d'édition de l'ARN modifiant la protéine est appelé recodage de l'ARN.

Les céphalopodes à corps mou ont adopté le recodage de l'ARN à bras-le-corps, alors que même les espèces étroitement apparentées sont plus hésitantes à accepter les réécritures, explique Albertin. "Les autres mollusques ne semblent pas le faire dans la même mesure.

L'édition de l'ARN ne se limite pas aux créatures des profondeurs. Presque tous les organismes multicellulaires possèdent une ou plusieurs enzymes d'édition de l'ARN appelées enzymes ADAR, abréviation de "adénosine désaminase agissant sur l'ARN", explique Joshua Rosenthal, neurobiologiste moléculaire au Marine Biological Laboratory.

Les céphalopodes possèdent deux enzymes ADAR. L'homme possède également des versions de ces enzymes. "Dans notre cerveau, nous modifions une tonne d'ARN. Nous le faisons beaucoup", explique Rosenthal. Au cours de la dernière décennie, les scientifiques ont découvert des millions d'endroits dans les ARN humains où se produit l'édition.

Mais ces modifications changent rarement les acides aminés d'une protéine. Par exemple, Eli Eisenberg, de l'université de Tel Aviv, et ses collègues ont identifié plus de 4,6 millions de sites d'édition dans les ARN humains. Parmi ceux-ci, seuls 1 517 recodent les protéines, ont rapporté les chercheurs l'année dernière dans Nature Communications. Parmi ces sites de recodage, jusqu'à 835 sont partagés avec d'autres mammifères, ce qui suggère que les forces de l'évolution ont préservé l'édition à ces endroits.

(Encadré :  Comment fonctionne l'édition de l'ARN ?

Dans une forme courante d'édition de l'ARN, une adénosine devient une inosine par une réaction qui supprime un groupe aminé et le remplace par un oxygène (flèches). L'illustration montre une enzyme ADAR se fixant à un ARN double brin au niveau du "domaine de liaison de l'ARNdb". La région de l'enzyme qui interagit pour provoquer la réaction, le "domaine de la désaminase", est positionnée près de l'adénosine qui deviendra une inosine.)

Les céphalopodes portent le recodage de l'ARN à un tout autre niveau, dit Albertin. L'encornet rouge (Doryteuthis pealeii) possède 57 108 sites de recodage, ont rapporté Rosenthal, Eisenberg et leurs collègues en 2015 dans eLife. Depuis, les chercheurs ont examiné plusieurs espèces de pieuvres, de calmars et de seiches, et ont à chaque fois trouvé des dizaines de milliers de sites de recodage.

Les céphalopodes à corps mou, ou coléoïdes, pourraient avoir plus de possibilités d'édition que les autres animaux en raison de l'emplacement d'au moins une des enzymes ADAR, ADAR2, dans la cellule. La plupart des animaux éditent les ARN dans le noyau - le compartiment où l'ADN est stocké et copié en ARN - avant d'envoyer les messages à la rencontre des ribosomes. Mais chez les céphalopodes, les enzymes se trouvent également dans le cytoplasme, l'organe gélatineux des cellules, ont découvert Rosenthal et ses collègues (SN : 4/25/20, p. 10).

Le fait d'avoir des enzymes d'édition dans deux endroits différents n'explique pas complètement pourquoi le recodage de l'ARN chez les céphalopodes dépasse de loin celui des humains et d'autres animaux. Cela n'explique pas non plus les schémas d'édition que les scientifiques ont découverts.

L'édition de l'ARN amènerait de la flexibilité aux céphalopodes

L'édition n'est pas une proposition "tout ou rien". Il est rare que toutes les copies d'un ARN dans une cellule soient modifiées. Il est beaucoup plus fréquent qu'un certain pourcentage d'ARN soit édité tandis que le reste conserve son information originale. Le pourcentage, ou fréquence, de l'édition peut varier considérablement d'un ARN à l'autre ou d'une cellule ou d'un tissu à l'autre, et peut dépendre de la température de l'eau ou d'autres conditions. Chez le calmar à nageoires longues, la plupart des sites d'édition de l'ARN étaient édités 2 % ou moins du temps, ont rapporté Albertin et ses collègues l'année dernière dans Nature Communications. Mais les chercheurs ont également trouvé plus de 205 000 sites qui étaient modifiés 25 % du temps ou plus.

Dans la majeure partie du corps d'un céphalopode, l'édition de l'ARN n'affecte pas souvent la composition des protéines. Mais dans le système nerveux, c'est une autre histoire. Dans le système nerveux du calmar à nageoires longues, 70 % des modifications apportées aux ARN producteurs de protéines recodent ces dernières. Dans le système nerveux de la pieuvre californienne à deux points (Octopus bimaculoides), les ARN sont recodés trois à six fois plus souvent que dans d'autres organes ou tissus.

(Photo -  L'encornet rouge recode l'ARN à plus de 50 000 endroits. Le recodage de l'ARN pourrait aider le calmar à réagir avec plus de souplesse à son environnement, mais on ne sait pas encore si le recodage a une valeur évolutive. Certains ARNm possèdent plusieurs sites d'édition qui modifient les acides aminés des protéines codées par les ARNm. Dans le système nerveux de l'encornet rouge, par exemple, 27 % des ARNm ont trois sites de recodage ou plus. Certains contiennent 10 sites ou plus. La combinaison de ces sites d'édition pourrait entraîner la fabrication de plusieurs versions d'une protéine dans une cellule.)

Le fait de disposer d'un large choix de protéines pourrait donner aux céphalopodes "plus de souplesse pour réagir à l'environnement", explique M. Albertin, "ou leur permettre de trouver diverses solutions au problème qui se pose à eux". Dans le système nerveux, l'édition de l'ARN pourrait contribuer à la flexibilité de la pensée, ce qui pourrait expliquer pourquoi les pieuvres peuvent déverrouiller des cages ou utiliser des outils, pensent certains chercheurs. L'édition pourrait être un moyen facile de créer une ou plusieurs versions d'une protéine dans le système nerveux et des versions différentes dans le reste du corps, explique Albertin.

Lorsque l'homme et d'autres vertébrés ont des versions différentes d'une protéine, c'est souvent parce qu'ils possèdent plusieurs copies d'un gène. Doubler, tripler ou quadrupler les copies d'un gène "permet de créer tout un terrain de jeu génétique pour permettre aux gènes de s'activer et d'accomplir différentes fonctions", explique M. Albertin. Mais les céphalopodes ont tendance à ne pas dupliquer les gènes. Leurs innovations proviennent plutôt de l'édition.

Et il y a beaucoup de place pour l'innovation. Chez le calmar, les ARNm servant à construire la protéine alpha-spectrine comportent 242 sites de recodage. Toutes les combinaisons de sites modifiés et non modifiés pourraient théoriquement créer jusqu'à 7 x 1072 formes de la protéine, rapportent Rosenthal et Eisenberg dans le numéro de cette année de l'Annual Review of Animal Biosciences (Revue annuelle des biosciences animales). "Pour mettre ce chiffre en perspective, écrivent les chercheurs, il suffit de dire qu'il éclipse le nombre de toutes les molécules d'alpha-spectrine (ou, d'ailleurs, de toutes les molécules de protéines) synthétisées dans toutes les cellules de tous les calmars qui ont vécu sur notre planète depuis l'aube des temps.

Selon Kavita Rangan, biologiste moléculaire à l'université de Californie à San Diego, ce niveau de complexité incroyable ne serait possible que si chaque site était indépendant. Rangan a étudié le recodage de l'ARN chez le calmar californien (Doryteuthis opalescens) et le calmar à nageoires longues. La température de l'eau incite les calmars à recoder les protéines motrices appelées kinésines qui déplacent les cargaisons à l'intérieur des cellules.

Chez l'encornet rouge, l'ARNm qui produit la kinésine-1 comporte 14 sites de recodage, a découvert Mme Rangan. Elle a examiné les ARNm du lobe optique - la partie du cerveau qui traite les informations visuelles - et du ganglion stellaire, un ensemble de nerfs impliqués dans la génération des contractions musculaires qui produisent des jets d'eau pour propulser le calmar.

Chaque tissu produit plusieurs versions de la protéine. Rangan et Samara Reck-Peterson, également de l'UC San Diego, ont rapporté en septembre dernier dans un article publié en ligne sur bioRxiv.org que certains sites avaient tendance à être édités ensemble. Leurs données suggèrent que l'édition de certains sites est coordonnée et "rejette très fortement l'idée que l'édition est indépendante", explique Rangan. "La fréquence des combinaisons que nous observons ne correspond pas à l'idée que chaque site a été édité indépendamment.

L'association de sites d'édition pourrait empêcher les calmars et autres céphalopodes d'atteindre les sommets de complexité dont ils sont théoriquement capables. Néanmoins, l'édition de l'ARN offre aux céphalopodes un moyen d'essayer de nombreuses versions d'une protéine sans s'enfermer dans une modification permanente de l'ADN, explique M. Rangan.

Ce manque d'engagement laisse perplexe Jianzhi Zhang, généticien évolutionniste à l'université du Michigan à Ann Arbor. "Pour moi, cela n'a pas de sens", déclare-t-il. "Si vous voulez un acide aminé particulier dans une protéine, vous devez modifier l'ADN. Pourquoi changer l'ARN ?

L'édition de l'ARN a-t-elle une valeur évolutive ?

L'édition de l'ARN offre peut-être un avantage évolutif. Pour tester cette idée, Zhang et Daohan Jiang, alors étudiant de troisième cycle, ont comparé les sites "synonymes", où les modifications ne changent pas les acides aminés, aux sites "non synonymes", où le recodage se produit. Étant donné que les modifications synonymes ne modifient pas les acides aminés, les chercheurs ont considéré que ces modifications étaient neutres du point de vue de l'évolution. Chez l'homme, le recodage, ou édition non synonyme, se produit sur moins de sites que l'édition synonyme, et le pourcentage de molécules d'ARN qui sont éditées est plus faible que sur les sites synonymes.

"Si nous supposons que l'édition synonyme est comme un bruit qui se produit dans la cellule, et que l'édition non-synonyme est moins fréquente et [à un] niveau plus bas, cela suggère que l'édition non-synonyme est en fait nuisible", explique Zhang. Même si le recodage chez les céphalopodes est beaucoup plus fréquent que chez les humains, dans la plupart des cas, le recodage n'est pas avantageux, ou adaptatif, pour les céphalopodes, ont affirmé les chercheurs en 2019 dans Nature Communications.

Il existe quelques sites communs où les pieuvres, les calmars et les seiches recodent tous leurs ARN, ont constaté les chercheurs, ce qui suggère que le recodage est utile dans ces cas. Mais il s'agit d'une petite fraction des sites d'édition. Zhang et Jiang ont constaté que quelques autres sites édités chez une espèce de céphalopode, mais pas chez les autres, étaient également adaptatifs.

Si ce n'est pas si utile que cela, pourquoi les céphalopodes ont-ils continué à recoder l'ARN pendant des centaines de millions d'années ? L'édition de l'ARN pourrait persister non pas parce qu'elle est adaptative, mais parce qu'elle crée une dépendance, selon Zhang.

Zhang et Jiang ont proposé un modèle permettant de nuire (c'est-à-dire une situation qui permet des modifications nocives de l'ADN). Imaginez, dit-il, une situation dans laquelle un G (guanine) dans l'ADN d'un organisme est muté en A (adénine). Si cette mutation entraîne un changement d'acide aminé nocif dans une protéine, la sélection naturelle devrait éliminer les individus porteurs de cette mutation. Mais si, par chance, l'organisme dispose d'un système d'édition de l'ARN, l'erreur dans l'ADN peut être corrigée par l'édition de l'ARN, ce qui revient à transformer le A en G. Si la protéine est essentielle à la vie, l'ARN doit être édité à des niveaux élevés de sorte que presque chaque copie soit corrigée.

 Lorsque cela se produit, "on est bloqué dans le système", explique M. Zhang. L'organisme est désormais dépendant de la machinerie d'édition de l'ARN. "On ne peut pas la perdre, car il faut que le A soit réédité en G pour survivre, et l'édition est donc maintenue à des niveaux élevés.... Au début, on n'en avait pas vraiment besoin, mais une fois qu'on l'a eue, on en est devenu dépendant".

Zhang soutient que ce type d'édition est neutre et non adaptatif. Mais d'autres recherches suggèrent que l'édition de l'ARN peut être adaptative.

L'édition de l'ARN peut fonctionner comme une phase de transition, permettant aux organismes de tester le passage de l'adénine à la guanine sans apporter de changement permanent à leur ADN. Au cours de l'évolution, les sites où les adénines sont recodées dans l'ARN d'une espèce de céphalopode sont plus susceptibles que les adénines non éditées d'être remplacées par des guanines dans l'ADN d'une ou de plusieurs espèces apparentées, ont rapporté les chercheurs en 2020 dans PeerJ. Et pour les sites fortement modifiés, l'évolution chez les céphalopodes semble favoriser une transition de A à G dans l'ADN (plutôt qu'à la cytosine ou à la thymine, les deux autres éléments constitutifs de l'ADN). Cela favorise l'idée que l'édition peut être adaptative.

D'autres travaux récents de Rosenthal et de ses collègues, qui ont examiné les remplacements de A en G chez différentes espèces, suggèrent que le fait d'avoir un A modifiable est un avantage évolutif par rapport à un A non modifiable ou à un G câblé.

(Tableau :  Quelle est la fréquence de l'enregistrement de l'ARN ?

Les céphalopodes à corps mou, notamment les pieuvres, les calmars et les seiches, recodent l'ARN dans leur système nerveux sur des dizaines de milliers de sites, contre un millier ou moins chez l'homme, la souris, la mouche des fruits et d'autres espèces animales. Bien que les scientifiques aient documenté le nombre de sites d'édition, ils auront besoin de nouveaux outils pour tester directement l'influence du recodage sur la biologie des céphalopodes.

Schéma avec comparaison des nombre de sites de recodage de l'ARN chez les animaux

J.J.C. ROSENTHAL ET E. EISENBERG/ANNUAL REVIEW OF ANIMAL BIOSCIENCES 2023 )

Beaucoup de questions en suspens

Les preuves pour ou contre la valeur évolutive du recodage de l'ARN proviennent principalement de l'examen de la composition génétique totale, ou génomes, de diverses espèces de céphalopodes. Mais les scientifiques aimeraient vérifier directement si les ARN recodés ont un effet sur la biologie des céphalopodes. Pour ce faire, il faudra utiliser de nouveaux outils et faire preuve de créativité.

Rangan a testé des versions synthétiques de protéines motrices de calmars et a constaté que deux versions modifiées que les calmars fabriquent dans le froid se déplaçaient plus lentement mais plus loin le long de pistes protéiques appelées microtubules que les protéines non modifiées. Mais il s'agit là de conditions artificielles de laboratoire, sur des lames de microscope. Pour comprendre ce qui se passe dans les cellules, Mme Rangan aimerait pouvoir cultiver des cellules de calmar dans des boîtes de laboratoire. Pour l'instant, elle doit prélever des tissus directement sur le calmar et ne peut obtenir que des instantanés de ce qui se passe. Les cellules cultivées en laboratoire pourraient lui permettre de suivre ce qui se passe au fil du temps.

M. Zhang explique qu'il teste son hypothèse de l'innocuité en amenant la levure à s'intéresser à l'édition de l'ARN. La levure de boulanger (Saccharomyces cerevisiae) ne possède pas d'enzymes ADAR. Mais Zhang a modifié une souche de cette levure pour qu'elle soit porteuse d'une version humaine de l'enzyme. Les enzymes ADAR rendent la levure malade et la font croître lentement, explique-t-il. Pour accélérer l'expérience, la souche qu'il utilise a un taux de mutation supérieur à la normale et peut accumuler des mutations G-A. Mais si l'édition de l'ARN peut corriger ces mutations, il est possible d'obtenir des résultats positifs. Mais si l'édition de l'ARN peut corriger ces mutations, la levure porteuse d'ADAR pourrait se développer mieux que celles qui n'ont pas l'enzyme. Et après de nombreuses générations, la levure pourrait devenir dépendante de l'édition, prédit Zhang.

Albertin, Rosenthal et leurs collègues ont mis au point des moyens de modifier les gènes des calmars à l'aide de l'éditeur de gènes CRISPR/Cas9. L'équipe a créé un calmar albinos en utilisant CRISPR/Cas9 pour supprimer, ou désactiver, un gène qui produit des pigments. Les chercheurs pourraient être en mesure de modifier les sites d'édition dans l'ADN ou dans l'ARN et de tester leur fonction, explique Albertin.

Cette science n'en est qu'à ses débuts et l'histoire peut mener à des résultats inattendus. Néanmoins, grâce à l'habileté des céphalopodes en matière d'édition, la lecture de cet article ne manquera pas d'être intéressante.

 

Auteur: Internet

Info: https://www.sciencenews.org/article/octopus-squid-rna-editing-dna-cephalopods, Tina Hesman Saey, 19 may 2023

[ poulpes ] [ calamars ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par miguel

parapsychologie

Le pays des aveugles de Koestler (I) 

Ainsi, après plusieurs détours, nous voilà de retour à notre point de départ. Ce "sentiment océanique" mystique se situe certainement à un étage supérieur de cette spirale que celui de l'enfant nouveau-né. L'enfant n'a pas encore d'identité personnelle, le mystique et le medium l'ont eux transcendée. Cette spirale a beaucoup de cercles, mais à chaque tour nous sommes confrontés à la même polarité et au même genre de monade, dont une face dit que je suis le centre du monde, et l'autre que je suis une petite partie en quête de la totalité. Nous pouvons considérer les phénomènes de parapsychologie comme les fruits de cette recherche - qu'ils se soient produits spontanément ou en laboratoire. La perception extra sensorielle apparait alors comme la plus haute manifestation du potentiel d'intégration de la matière vivante - qui, chez les humains, s'accompagne généralement d'un type d'auto-transcendance de l'émotion.

Alors que tout au long de notre excursion dans la biologie et la physique nous étions sur un terrain scientifique solide, nous voilà en pleine étape spéculative. Je ne prétends pas que ce soit un plus. Mais c'est la science moderne elle-même, avec ses vues paradoxales, qui nous y incite. Nous ne nous arrêterons pas à la "classique" télépathie-ESP ni à la prévision à court terme - pour lesquelles des explications physiques peuvent encore être trouvée. Car exclure clairvoyance, psychokinésie et coïncidences de séries ou de synchronicités, serait arbitraire, tout en laissant les choses telles qu'elles étaient avant. D'autre part, si on prend la "Tendance Intégrative" comme un principe universel comprenant des phénomènes causals, l'image devient grandement simplifiée, même si elle est encore hors de portée de notre compréhension. Au lieu de plusieurs mystères, nous voilà aujourd'hui confrontés à une seule tendance évolutive irréductible, issue de la constitution d'ensembles plus complexes venant de pièces diversifiées. La doctrine hippocratique de la "sympathie de toutes choses" en est un paradigme précoce. L'évolution des connaissances, avec ses maillages en branches spécialisées et leur confluence vers un delta unifié, en est un autre.

On pourrait en effet le substituer à la maladresse de termes comme "sérialité" et "Synchronicité" - qui mettent l'accent sur le temps seul, avec pour résultat une non-incarcération grâce à des expressions comme "évènements confluentiels". Les évènements confluentiels seraient-ils causals de manifestations d'une tendance à l'intégration. L'apparition du scarabée de Jung serait alors un évènement confluentiel. Ainsi les effets de la psychokinésie comme le lancer de dés et autres phénomènes paranormaux seraient aussi causals de ces phénomènes. Si on leur prête une signification, c'est qu'ils donnent l'impression d'avoir un lien de causalité, même si ils ne sont manifestement pas de cette sorte de pseudo-causalité. Le scarabée semble être attiré à la fenêtre de Jung par le patient qui raconte son rêve, les dés semblent être manipulés par la volonté de l'expérimentateur, le clairvoyant semble voir les cartes cachées. Les potentiels intégratifs de la vie semblent inclure la capacité de produire des effets pseudo-causals - qui provoquent un évènement confluentiel sans se soucier, pour ainsi dire, de l'emploi d'agents physiques. Il est donc très difficile de tracer une ligne de démarcation nette séparant causalité et non-causalité des évènements. Les animaux aveugles peuvent sentir leur chemin par des usages physiques plus grossiers comme le toucher ou l'odorat. Les chauves-souris utilisent une sorte de radar - ce qui il n'y a pas si longtemps aurait été vu par les naturalistes comme une hypothèse bien saugrenue. Des animaux équipés pour réagir aux photons - particules avec une masse nulle au repos qui peuvent également se comporter comme des ondes dans un milieu et, partant, semblent défier la causalité. Des hommes sans yeux comme les citoyens des pays des aveugles, rejetteraient surement l'affirmation qu'on peut percevoir des objets éloignés sans contact par toucher comme un non-sens occulte - ou bien déclareraient qu'une telle faculté, si elle existe vraiment, est certainement au-delà du domaine de la causalité physique, et devrait être appelé perception extra-sensorielle.

Un des neurophysiologistes les plus respectés de Grande-Bretagne, le Dr W. Walter Grey, a réalisé ces dernières années une série d'expériences remarquables. Il s'est fabriqué une machine électrique, qui par un effort de volonté, peut influer sur les évènements externes sans mouvement ni action manifeste via les impalpables pics électriques du cerveau. Cet effort nécessite un état particulier de concentration, composé paradoxal de détachement et d'excitation. La procédure expérimentale de Grey Walter peut être décrite de manière simplifiée comme suit. Des électrodes fixées sur le cuir chevelu et le cortex frontal du sujet transmettent les vagues électriques des activités cervicales vers un amplificateur d'ondes via une machine. En face de l'objet il y a un bouton : si on le presse une "scène intéressante" apparait sur un écran de télévision. Mais, environ une seconde avant qu'on appuie sur le bouton, une surtension électrique d'une vingtaine de microvolts se produit dans une grande partie du cortex du sujet, on la nomme "vague de préparation". Mais les circuits de l'appareil peuvent être réglés de telle sorte que la "vague de préparation" amplifiée soit suffisante pour déclencher l'interrupteur et faire ainsi apparaitre la scène de télévision une fraction de seconde avant que le sujet ait effectivement appuyé sur le bouton. C'est ce qu'on appelle un "démarrage automatique". Un sujet intelligent se rend vite compte que son action a le résultat escompté avant qu'il n'ait effectivement déplacé son doigt, et donc il cesse généralement d'appuyer sur le bouton: les images apparaissent comme et quand il les veut... Mais, pour que cet effet soit durable, il est essentiel que le sujet "veuille" vraiment que l'évènement se produise, et donc il doit se concentrer sur l'évocation de cet évènement précis. Lorsque l'attention du sujet se détache à cause d'une présentation monotone, ou qu'il "se concentre sur la concentration", le potentiel du cerveau ne parvient pas à déclencher la vague. Ce démarrage automatique peut être combiné avec un auto-stop afin que le sujet puisse acquérir une image en voulant son apparition sur l'écran du téléviseur, puis l'effacer dès qu'il a terminé son inspection de celle-ci.

Du point de vue du sujet, c'est une expérience très particulière, parfois accompagnée de signes d'excitation contenue; une diurèse [évacuation d'urine] a été très marquée pour deux des expérimentateurs. Examinant ces expériences Renee Haynes rédacteur en chef du Journal de la SPR a déclaré: En principe, bien sûr, ce n'est pas plus remarquable que ce qui arrive quand un enfant regarde avec étonnement, quand, avec sa main, il prouve la puissance de sa volonté en décidant de lever le petit doigt ou en le déplaçant. En pratique, c'est étonnant parce que ce mode pour exercer une influence sur le monde extérieur est fort peu familier à l'homme, même s'il est probablement banal pour une anguille électrique. Il est aussi très intéressant en ce qu'il a amené le Dr Grey Walter a utiliser avec un certain embarras, un mot tel que "pouvoir de la volonté". Cela, on s'en souvient, fut aussi l'attitude de Sir John Eccles quand il considérait que l'action de "volonté mentale" du "cerveau physique", comme le mystère de base, et la psychokinésie simplement comme une extension de celui-ci. On pourrait décrire l'expérience Grey Walter comme de la "pseudo-télékinésie" car il y a des fils qui relient les électrodes et crâne du sujet avec l'appareil TV. Mais on pourrait tout aussi bien décrire l'action de l'esprit du sujet sur son propre cerveau comme une pseudo-causalité. Ou nous pourrions dire que le sujet a découvert une façon plus élégante de produire un "évènement confluentiel" sans prendre la peine d'employer des agents physiques. Dans ce contexte il nous faut maintenant parler du rapport hypnotique.

Jusqu'au milieu du siècle dernier, l'hypnose a été traitée comme une fantaisie occulte par la science occidentale (bien que dans d'autres cultures, elle ait été prise comme une acquis). Aujourd'hui elle est devenue si respectable et banale que nous avons tendance à oublier que nous n'avons pas d'explication la concernant. On a démontré qu'un sujet approprié peut être temporairement sourd, muet, aveugle, anesthésié, amené à avoir des hallucinations ou revivre des scènes de son passé. Il peut être amené à oublier ou à se rappeler ce qui s'est passé pendant la transe avec un claquement de doigts. On peut lui enjoindre une suggestion post-hypnotique qui lui fera exécuter le lendemain, à 5 heures précises, une action stupide comme le déliement de ses lacets - et aussi trouver une certaine rationalité à cet acte. Les utilisations de l'hypnose médicale sur des patients appropriés en dentisterie, obstétrique et en dermatologie sont bien connues. Moins connues, cependant, sont les expériences de A. Mason et S. Black sur la suppression des réactions cutanées allergiques par l'hypnose. On injecta à des patients des extraits de pollen, auxquels ils étaient très allergiques, et après le traitement hypnotique, ils cessèrent de montrer la moindre réaction. Avec l'hypnose, d'autres patients n'ont pas eu de réaction allergique contre le bacille de la tuberculose. Comment les suggestions hypnotiques peuvent-elles modifier la réactivité chimique des tissus au niveau microscopique reste donc une conjecture. Après la guérison remarquable de Mason par hypnose d'un garçon de seize ans souffrant d'ichtyose (la maladie de peau de poisson, une affection congénitale que l'on croyait incurable) un évaluateur du British Medical Journal a fait remarquer que ce cas unique suffirait pour exiger "une révision des concepts courants sur la relation entre l'esprit et le corps ". Cette révision des concepts actuels est attendue depuis longtemps. Nous ne savons pas si Eddington avait raison quand il a dit que le monde est fait de matière-esprit, et qu'il n'est certainement pas fait de l'étoffe des petites boules de billards du physicien du dix-neuvième siècle qui volaient dans tous les sens jusqu'à ce que le hasard les fasse s'agréger en une amibe.

Dans son adresse de 1969 à l'American Society for Psychical Research, que j'ai cité précédemment, le professeur Henry Margenau a dit ceci : Un artefact parfois invoqué pour expliquer la précognition est de prendre en compte un temps multidimensionnel. Ce qui permet un véritable passage vers l'arrière du temps, ce qui pourrait permettre à certains intervalles, positifs dans un sens du temps, de devenir négatifs ("effet avant la cause") dans un autre. En principe, ça représente un schéma valable, et je ne connais pas la critique qui pourra l'exclure en tant que démarche scientifique. Si elle est acceptable, cependant, une mesure entièrement nouvelle de l'espace-temps doit être développée. J'ai sondé quelques suggestions que la physique pourrait offrir comme solution à ce genre de problème que vous rencontrez. Les résultats positifs, je le crains, sont maigres et décevants, mais peut-être que cela vaut-il quand même une vraie étude. Mais pourquoi, voudrai-je maintenant demander, est-il nécessaire d'importer vers une nouvelle discipline tous les concepts approuvés d'une ancienne science à son stade actuel de développement? La physique n'adhère pas servilement aux formulations grecques rationalistes qui l'ont précédé, il a bien fallu créer nos propres constructions spécifiques.

Le parapsychologue, je pense ... doit voler de ses propres ailes et probablement de manière plus audacieuse que ce que les conditions que la physique d'aujourd'hui suggèrent - et aussi tolérer sans trop de souci les voix stridentes et critiques des scientifiques "hard-boiled", pragmatiques et satisfaits, et ainsi continuer sa propre recherche minutieuse vers une meilleure compréhension via de nouvelle sortes d'expériences, peut-être aussi avec des concepts qui apparaissent étranges. Nous sommes entourés de phénomènes que l'existence nous fait soigneusement ignorer, ou, s'ils ne peuvent pas être ignorés, nous les rejetons comme des superstitions. L'homme du XIIIe siècle ne se rendait pas compte qu'il était entouré de forces magnétiques. Nous n'avons donc pas la conscience sensorielle directe de beaucoup de manifestations, ni des douches de neutrinos qui nous traversent, ni d'autres "influences" inconnues. Donc, nous pourrions tout aussi bien écouter les conseils de Margenau et créer nos propres constructions "spécifiques", supposant que nous vivons plongés dans une sorte de "psycho-champ magnétique" qui produit des évènements confluentiels... tout ceci par des moyens qui dépassent les concepts classiques de la physique. Des buts et leur conception qui nous sont inconnus certes, mais nous estimons qu'il doivent être en quelque sorte liés à un effort vers une forme supérieure de l'ordre et de l'unité dans toute cette diversité que nous observons au travers de notre appréciation de l'évolution de l'univers dans son ensemble, de la vie sur terre, de la conscience humaine et, enfin, de la science et de l'art.

Un mystère "plus haut d'un cran" est plus facile à accepter qu'une litière de puzzles indépendants. Cela n'explique pas pourquoi le scarabée est apparu à la fenêtre, mais au moins on pourra l'adapter aux évènements confluentiels et autres phénomènes paranormaux d'une conception unifiée. Il ya, cependant, un aspect profondément troublant à ces phénomènes. Les évènements paranormaux sont rares, imprévisible et capricieux. C'est comme nous l'avons vu, la principale raison pour laquelle les sceptiques se sentent en droit de rejeter les résultats des cartes devinées et autres expériences de psychokinésie, en dépit de preuves statistiques qui, dans tout autre domaine de la recherche, suffiraient à prouver cette hypothèse. Une des raisons du caractère erratique de l'ESP a déjà été mentionnée : notre incapacité à contrôler les processus inconscients sous-jacents. Les expériences de Grey Walter n'étaient pas concernées par l'ESP, mais il a bien dû se rendre compte que la "vague de préparation" ne pouvait atteindre le seuil suffisant que si le sujet était dans un état décrit comme "un composé paradoxal de détachement et d'excitation".

Les expériences paranormales spontanées sont toujours liées à un certain type d'auto-transcendance de l'émotion, comme dans les rêves télépathiques ou lors de transe médiumnique. Même dans le laboratoire, où là aussi le rapport affectif entre l'expérimentateur et le sujet est d'une importance décisive. L'intérêt du sujet dans le mystère de l'ESP en lui-même évoque une émotion auto-transcendante. Lorsque que son intérêt baisse à la fin d'une longue séance ESP, il mpntre un déclin caractéristique du nombre de "hits" sur la feuille de score. Cet "effet de déclin" peut être considéré comme une preuve supplémentaire de la réalité de l'ESP. Il y a aussi une diminution globale de la performance de la plupart des sujets après une longue série de séances. Ils s'ennuient. Les compétences les plus normales s'améliorent avec la pratique. Avec l'ESP c'est le contraire.

Un autre argument relatif à la rareté apparente des phénomènes paranormaux a été présentée par le regretté professeur Broad dans un article de philosophie: "Si la cognition paranormale et la causalité sont des faits paranormaux, il est alors fort probable que cela ne se limite pas à ces très rares occasions pendant lesquelles elles se manifestent sporadiquement, ou de façon spectaculaire, ou dans des conditions très particulières pendant lesquelles leur présence peut être expérimentalement établie. Ces phénomènes pourraient très bien être en fonction continue en arrière-plan de nos vies normales. Notre compréhension et nos malentendus avec nos semblables, notre humeur, l'émotionnel général en certaines occasions, les idées qui surgissent soudainement dans nos esprits sans aucune cause évidente introspectable; nos réactions émotionnelles inexplicables immédiates vis à vis de certaines personnes... et ainsi de suite, tout cela pourrait être en partie déterminé par une meilleure connaissance du paranormal et autres influences causales paranormales."

Collègue du professeur Broad à Oxford, le professeur Price a ajouté cette suggestion intéressante en ce qui concerne le caprice apparent des ESP: "Il semble que les impressions reçues par télépathie ont quelques difficultés à franchir un seuil pour se manifester à la conscience. Il semble qu'il y ait une barrière ou un mécanisme répressif qui tende à les exclure de la conscience, une barrière qui est assez difficile à passer, même si on fait usage de toutes sortes d'appareils pour la surmonter. Parfois, en ayant recours aux mécanismes musculaires du corps, ou en les faisant émerger sous forme de parole ou d'écriture automatique. Parfois, ces phénomènes apparaissent sous forme de rêves, parfois d'hallucinations visuelles ou auditives. Et souvent, ils peuvent émerger sous un aspect déformé et symbolique (comme d'autres contenus mentaux inconscients le font). Il est plausible que beaucoup de nos pensées quotidiennes et d'émotions soient télépathes, ou en partie d'origine télépathique, mais elles ne sont pas reconnues comme telles car elles sont trop déformées et mélangées avec d'autres contenus mentaux en franchissant le seuil de la conscience.

Adrian Dobbs, commentant ce passage, a soulevé un point important dans un texte très intéressant et suggestif. Il évoque l'image de l'âme ou du cerveau comme contenants un assemblage de filtres sélectifs, conçus pour couper les signaux indésirables à des fréquences voisines, dont certaines parviendraient sous une forme déformée, exactement comme dans une réception radio ordinaire. La "théorie du filtre", comme on pourrait l'appeler, remonte en fait à Henri Bergson. Elle a été reprise par divers auteurs sur la perception extra-sensorielle. Il s'agit en fait simplement d'une extrapolation de ce que nous savons au sujet de la perception sensorielle ordinaire. Nos principaux organes des sens sont comme des fentes qui admettent seulement une gamme de fréquence très étroite d'ondes électromagnétiques et sonores. Mais même la quantité d'infos qui entrent par ces fentes étroites, c'est déjà trop. La vie serait impossible si nous devions prêter attention aux millions de stimuli qui bombardent nos sens - ce que William James a appelé "l'épanouissement de la multitude du bourdonnement des sensations". Ainsi, le système nerveux, et surtout le cerveau, fonctionnent comme une hiérarchie de filtrages et de classifications de dispositifs qui éliminent une grande partie de nos entrées sensorielles sous forme de " bruits" non pertinents", pour traiter les bonnes informations sous forme gérable avant qu'elles ne soient présentées à la conscience.

Un exemple souvent cité de ce processus de filtrage est le "phénomène cocktail" qui nous permet d'isoler une seule voix dans le bourdonnement général. Par analogie, un mécanisme de filtrage similaire peut être supposé nous protéger de la floraison et de la multitude de bourdonnement des images, des messages, des impressions et des événements confluentiels du "psycho-champ magnétique" qui nous entoure. Comme il s'agit d'un point de grande importance pour essayer de comprendre pourquoi les phénomènes paranormaux se présentent dans ces formes inexplicables et arbitraire, je vais livrer quelques citations plus pertinentes sur ce sujet. Ainsi le psychiatre James S. Hayes, écrivant dans The Scientist, spécule: Je pense depuis longtemps que les questions classiques posées sur la télépathie ("Cela se passe-t'il" et si oui, "comment?") sont moins susceptibles d'être fructueuses que cette question: "Si la télépathie existe, qu'est-ce qui l'empêche de se produire plus ? Comment l'esprit (ou le cerveau) se protègent-ils contre l'afflux potentiel de l'expérience des autres? "

Et Sir Cyril Burt, à nouveau: La conception naturelle qu'a l'homme de l'univers, ou plutôt de la partie étroite à laquelle il a accès, est celle d'un monde d'objets tangibles de taille moyenne, se déplaçant à des vitesses modérées de manière visible en trois dimensions, réagissant à l'impact de forces de contact (le push et pull de simples interactions mécaniques), le tout en conformité avec des lois relativement simples. Jusqu'à tout récemment la conception de l'univers adoptée par le chercheur, son critère de la réalité, était celui de l'Incrédulité de saint Thomas : "ce qui peut être vu ou touché". Pourtant, supputer que sur une telle base que nous pourrions construire une image complète et comprise de l'univers c'est comme supposer que le plan d'une rue de Rome nous dirait ce à quoi la Ville Eternelle ressemblerait.

La nature semble avoir travaillé sur un principe identique. Nos organes des sens et notre cerveau fonctionnent comme une sorte de filtre complexe qui limite et dirige les pouvoirs de clairvoyance de l'esprit, de sorte que dans des conditions normales notre attention soit concentrée seulement sur des objets ou des situations qui sont d'une importance biologique pour la survie de l'organisme et de l'espèce.

En règle générale, il semblerait que l'esprit rejette les idées venant d'un autre esprit comme le corps rejette les greffes provenant d'un autre corps. Burt résume son point de vue, en nous rappelant que la physique contemporaine reconnaît quatre types d'interactions (forte, faible, électromagnétique et gravitationnelle), dont chacune obéit à ses propres lois, et, jusqu'à présent en tout cas, ce modèle a vaincu toutes les tentatives de le réduire à autre chose. Cela étant, il ne peut y avoir aucun antécédent improbable qui nous interdise de postuler un autre système et/ou un autre type d'interaction, en attendant une enquête plus intensive. Un univers psychique composé d'événements ou d'entités liées par des interactions psychiques, obéissant à des lois qui leur sont propres et qui interpénètrent l' univers physique et le chevauchent partiellement, tout comme les diverses interactions déjà découvertes et reconnues se chevauchent les unes les autres. (2e partie)

Auteur: Koestler Arthur

Info: Internet et Roots of coïncidence

[ Holon ] [ corps-esprit ] [ intégratif ] [ spectre continu ] [ dépaysement moteur ]

 

Commentaires: 0

discussion entre quêteurs métaphysiques

Eric Durieux : - Je prends le clavier ce soir pour rédiger un post un peu dérangeant. S'il n'est pas publié par les modérateurs je comprendrai. J'ai cependant besoin de  vous faire part de ma frustration. J’ai presque honte de ce que je vais écrire mais je crois qu’il est possible que ça soit utile.

Voici le problème : depuis ces quelques mois passés dans ce groupe, je me retrouve dans une situation où je suis d’avantage sceptique quant à l’existence et la réalité des shc qu’avant d’entrer dans le groupe. Je trouve la plupart des témoignages très oniriques et irrationnels, reflétant souvent la même incohérence que dans les rêves. Ils suscitent en moi une multitude de questionnements qui me fait de plus en plus douter de ces voyages (je veux dire du caractère simplement non onirique de ceux-ci). Quelques exemples :

1) La corde d’argent. Pourquoi doit elle être épaisse près du corps biologique et ultra fine à une certaine distance, alors qu’elle semble pouvoir s’étirer à l’infini. Ne peut elle pas être d’office fine dès le départ ? Puisque infinie… Ou épaisse tout le temps ? Et pourquoi ne diminue-t-elle pas proportionnellement à la distance de façon régulière si c’est la distance qui l’étire et la fait changer de taille ?

2) Autre point, les constructions et les bâtiments dans les autres mondes, qui semblent parfois défier les lois de la physique. Ok, mais si les lois de la physique sont différentes, pourquoi faire des bâtiments qui ont tout de même l’air de reposer sur une partie de ces lois ? Et pourquoi s’abriter dans des bâtiments si les habitants de ces mondes sont immatériels donc n’ont pas besoin de la protection matérielle des bâtiments.

3) Le côté candide et naïf de certaines situations qui ressemblent presque à des dessins animés. Des rencontres d’archétypes, d’êtres étrangement limités à des rôles prédéfinis comme dans les livres d’enfants.

4) Les projections, qui ont bon dos et permettent d’expliquer un peu n’importe quoi et n’importe quelles incohérences.

5) L’infinité des mondes (ça c’est  "normal") mais l’impossibilité de retourner facilement dans le même monde ou d’y retrouver un autre voyageur comme dans un rendez-vous fixé au préalable.

6) La manipulation des médiums par des êtres énergétiques. Rien ne dit, du coup, que le même phénomène ne se produit pas à un échelon supérieur et que les voyages ne sont pas une manipulation par une catégorie d'êtres encore supérieurs qui sont capables de nous faire croire à la lucidité et aux shc...

Si au final ces voyages ne sont rien de plus que des rêves, avec l’incohérence des rêves, mais de la lucidité en plus, ce ne sont que des rêves ultra lucides et pas de la sortie de corps. D’autant que les sorties dans le monde proche montrent régulièrement des incohérences par rapport au monde tangible biologique (meubles différents, objets à d’autres places). N’est-il pas possible d’au moins pouvoir voyager dans le même plan tel qu’il est exactement dans le corps afin de vérifier les choses rationnellement ?

Ou alors, est-ce que ce qui caractérise notre monde physique est précisément la rationalité et que celle-ci n’existe pas ailleurs ? Auquel cas on aurait LA raison pour laquelle les mondes physiques existent.

J'ai d'autres questionnements du même type mais je m'arrête là, plus le temps passe plus je suis perdu. Il y a pire qu'être quelqu'un qui ne croit pas aux shc parce qu'il ne veut pas y croire (le sceptique de base zététicien), Il y a celui qui comme moi commence à ne plus y croire parce qu'il a tellement envie d'y croire qu'il remarque tout ce qui nourrit sa peur que ce soit du vent.

Marc Auburn : - C'est quelque chose de très commun, et de très logique. Tant qu'on n'experimente pas soi-même, on ne peut être que sur des opinions, des avis, des croyances, des analyses. On ne peut strictement rien comprendre, et on pose des questions à l'infini.

Quelques soient les réponses qui sont fournies par les Voyageurs, elles ne seront pas comprises par beaucoup, et ils le savent. C'est pourquoi l'essentiel des Voyageurs demeurent silencieux. C'est une question récurrente pour moi: à quoi sert une telle page?

Ceux qui savent, qui sont de véritables Voyageurs peuvent échanger entre eux, et sélectionner UNIQUEMENT dans le groupe ces personnes là fut ma première idée, qui par ailleurs me revient régulièrement en tête.

Il y a aussi ceux qui s'interrogent non stop, qui sont parfois des "EXPERTS" du sujet, mais qui n'ont pas la moindre expérience et qui s'enferment dans des idées réductrices, ils ne peuvent pas concevoir que la structure de leur mental est la CAUSE unique de leur absence d'expérience.

Je vais ici dévoiler quelque chose : j'ai observé et compris qu'il existe une catégorie qui a de très faibles chances de Voyager durant la vie biologique, et qui devraient laisser tomber ce sujet: ceux dont le mental réduit à l'impuissance par une sur-activité "rationnelle" qui est en réalité une profonde méconnaissance souvent doublée de nœuds psychologiques bien serrés issus de traumas complexes.

Cette catégorie là constitue moins de 1%, mais elle devrait s'intéresser à autre chose, au moins tant que leur mental est verrouillé aussi fermement.

Quand leur "mort" viendra, ce qu'ils auront lu, entendu leur servira, mais probablement pas avant.

Du point de vue des Voyageurs, ces profils là sont ceux qui posent le plus de questions, qui analysent et déduisent non stop, et dont les réponses qui leurs sont apportées ne leur servent aucunement, par contre elles vont servir AUX AUTRES PROFILS.

Dans ces groupes sociaux, il y a ceux qui sont là pour se distraire, pour rêver. Les sujets leurs paraissent sympa, mais ils ne mettent rien en œuvre pour expérimenter eux-mêmes.

Et puis il y a les autres, ceux qui vont pouvoir vivre le Voyage, par un procédé ou un autre, au terme d'un mois ou de 5 ans, peu importe.

C'est pour ceux-ci que je garde cette page ouverte aux non Voyageurs.

Sinon ce serait une page de vierges qui parleraient sans cesse de sexualité et d'amour sans jamais pratiquer. Une sorte de réunion de loosers...

Néanmoins, pour TOUS les followers sans exception, je SAIS que ce qui est décrit ici servira immanquablement, au moment de la destruction de leur corps biologique, l'auteur de ce post y compris.

Mais bien amicalement, je lui conseille de s'intéresser à autre chose et d'oublier le Voyage pour le restant de son incarnation.

Aucune des réponses à ses incessantes questions ne lui permettra de vivre lui-même la chose, à un moment il faut laisser tomber, comme moi pour le dessin, le piano, le bricolage et un million d'autres trucs.

Borvo Conscience : - Eric Durieux Ton post n'est pas dérangeant, on voit que tu es une personne réfléchie. Seulement, on pressent bien qu'à travers les questionnements, tu cherches à te convaincre, où tu souhaites être rassuré. À un niveau individuel, il n'y a pas d'enjeu majeur, ce n'est pas grave, let go. Si tu ne crois plus, tant mieux, tu vas pouvoir commencer le vrai taff et expérimenter sans te prendre la tête quand tu as envie et comme tu as envie ou pas du tout.

Je te réponds sur les points, mais ça ne sera pas exhaustif. Marc a raison sur le fait que certains traits favorisent la production de sortie hors du corps comme l'absorption, l'imagination, susceptibilité hypnotique et quelques autres qui vont travailler ensemble et permettre à un sujet de :

- Se relaxer vite et bien,

- Calmer ses pensées vite et bien,

-  Avoir une imagination plus puissante (à considérer comme un organe de la conscience)

Si on n'a pas les traits adéquats, cela sera plus difficile, mais pas impossible.

Concernant le rêve et la sortie hors du corps, des études ont quand même été menés quand les neuroscientifiques/psychiatre/psychologue en avait quelque chose à faire.

On a les expériences avec des sujets voyageurs des Dr Twemlow, Tart ou Krippner. Je donne les noms au cas où tu souhaiterais regarder).

En se fondant sur leurs expériences sur des sujets doués, ils ont pu remarquer que l'activité corticale n'était pas la même entre la sortie hors du corps et le rêve.

SHC :

- Activité corticale diversifiée par rapport aux rêves (theta, Delta Alphaloide pour la SHC et principalement Beta et Theta pour le rêve)

- Peut se dérouler à n'importe quel stade du sommeil, même depuis l'éveil.

- Pas de MOR (mouvement oculaire rapide) pendant la SHC

- Processus secondaire (cohérence dans la sensation de réalité) contrairement au rêve (processus primaire)

- Si stimulus extérieur, la shc s'arrête aussitôt, tandis que durant le rêve et le rêve lucide, il y a une intégration du stimulus dans le scénario du rêve/rêve lucide

On a quand même des indices objectifs que la shc et le rêve/rêve lucide sont deux choses différentes. Bon, ça, c'est si on veut rester à raz la pâquerette, l'expérimentation nous donne des données en plus qu'on n'aurait pas autrement.

Enfin, et cela ne concerne que moi. La nature de l'environnement onirique et l'environnement du voyageur est la même. C'est une substance psychique qui réagit à nos pensées et nos émotions. Elle prend la forme d'instance personnelle lors des rêves et se nourrit de nos expériences. Le rêveur lucide restera sous l'empire de cette instance, le voyageur hors du corps accède lui aux réseaux psychiques dans sa globalité. Un réseau qui dans sa nature est une sorte de conscience globale qu'on peut appeler Cosmos ou Akasha. C'est pour cette raison que le rêve et la sortie hors du corps sont par ailleurs proches et très distinctes simultanément.

Je fais avec la numérotation de tes questions pour essayer t'apporter un point de vue. Toutefois, je n'aurai pas les réponses estampillées 100 % pure vérité. On est bien incapable de le faire, mais on ne peut pas non plus nous le reprocher, tu me diras. Mais j'espère que ça t'aidera :

1) Tu sembles penser que la corde d'argent doit obéir à une logique, on peut l'observer et la toucher. On est donc sûr des observations subjectives, on n'a aucune idée de l'anatomie de ce truc s'il y en a une.

Déjà d'autres expérienceurs ne voit pas de corde d'argent, qui nous dit que ce n'est pas une forme pensée, une croyance matérialisée ? Enfin, quand tu prends du caramel chaud et que tu le travailles en l'étirant, tu observes bien que la pâte épaisse s'affine. Analogiquement, cela correspond et on peut que spéculer.

2) Je n'ai jamais eu d'habitation dans la contrepartie éthérique qui défiait les lois de la physique classique personnellement. Concernant les extraphysiques qui ont besoin de bâtiments, je dirai simplement qu'il serait assez naïf de penser que la réalité que nous expérimentons avec ce corps physique soit le seul à être tangible.

3) Idem, si ça sort des expériences du groupe, je ne pourrai pas y répondre. Personnellement, les êtres que j'ai pu rencontrer sont loin d'être limités xD

4) Les projections sont une dynamique importante, pas une explication qu'on invente. C'est un vécu. Comme je le répète souvent, la sortie hors du corps permet d'accéder à un espace psychique qui relit tout le vivant dans un genre d'arrière monde, un espace PSYCHIQUE. Les projections sont juste la conséquence de l'activité d'un organe imaginatif de la conscience qui tend à s'exprimer (peur et désir).

Avec l'expérience, on projette moins. Seulement ce sujet mérite beaucoup de développement pour en expliquer tous les détails, mais de façon concise, oui la projection a un bon dos bien musclé.

5) Les rendez-vous ne sont pas impossibles. Mais, écoutes, il faut des amis déjà ;-).

On ne contrôle pas tous la translocalisation. Généralement, tu vas poser une intention pour un lieu et cela sera l'intention sous-jacente ou inconsciente qui aura la priorité. Il faut rendre visite aux amis à vol d'oiseau si je puis me permettre.

6) Bah non, on peut atteindre des pointes de lucidité qu'on peut à peine concevoir et qui ferait passer ton expérience de la réalité pour une blague onirique. Combien de guides ou de pseudos gars haut dans la hiérarchie céleste, j'ai laissé derrière moi ? Ce que tu nous dis là est plutôt à mettre en rapport avec la personnalité de base du voyageur.

Autant le médium à pas forcément le choix, il capte l'info et c'est tout. Autant un voyageur peut prendre par le col un extraphysique. Cela dépendra vraiment de qui tu es à la base, une personne qui va facilement s'intégrer dans des systèmes (maitre/apprentis dominé/dominant). Ainsi, sans vouloir généraliser, parce qu'on est tous différents, on va vers plus d'indépendance, même si on n'est jamais à l'abri.

Enfin, si on est quand même manipulé comme tu le dis, et alors ?

Dans ce scénario-là, on s'en rendrait pas compte, on fait quoi alors ? On arrête de voyager et de se poser des questions ? On se convertit aux gnosticismes en espérant un jour cassé la gueule au démiurge ?

Pour conclure, si les témoignages t'ont mis dans une détresse intellectuelle par rapport à la SHC, c'est positif. Si tu étais venu gober tout et n'importe quoi, cela aurait été déprimant. Ce qu'il faut retenir c'est qu'un témoignage n'est qu'un témoignage. Le mien n'a pas plus de valeur parce que je serai un voyageur. On vit des choses, on est assez intelligent pour voir qu'il y a une ù^$*ù^ dans le potager et que c'est plus qu'un rêve lucide (principe de comparaison).

Mais, ce sont uniquement des témoignages pouvant servir de base à une réflexion sur la conscience, la réalité et notre rapport à la vie et rien d'autre. Par ailleurs, il est indéniable que certains vont prendre un rêve particulièrement lucide pour une sortie hors du corps sur le groupe, mais ce n'est pas grave.

Je pense que tu serais intéressé par la lecture de Thomas Campbell, c'est un physicien et un voyageur hors du corps. Le fait qu'il soit physicien est une plus-value intéressante également Ervin Laszlo, un philosophe des sciences qui a développé une réflexion sur le champ Akashique comme toile de fond d'un web cosmique. Une toile accessible via diverses expériences comme le rêve, rêve lucide, sortie hors du corps et autres.

J'avais une tasse de café et un peu de temps pour répondre, en espérant que cela ait été utile.

Callirhoé Déicoon : - Merci Eric pour ce post. Je pense que chaque niveau de réalité est un leurre à dépasser car la compréhension progresse et s’affine. Et qu’il faut admettre que quand on est à un niveau A, le niveau B est en dehors de notre compréhension.

“j’ai eu l'illusion de regarder un coucher du soleil, ce qui m'a laissé à penser que l'horizon pourrait être le bout. Mais tout cela n'est qu'illusion, parce que, si l'on progresse dans les niveaux, de nouveaux niveaux apparaissent.”

La zone d’après-vie contiendrait des environnements terrestres créés pour un certain but, du moins c’est comme ça que c’est décrit dans les bouquins de Monroe. Ce n’est en aucun cas la “réalité ultime”. Juste un leurre de plus, fait pour accueillir les décédés. Donc, c’est conforme à leurs habitudes. “to ease their mind”…

Les yogi le disent aussi, qu’il y a une zone très attractive mais que le but n’est pas d’y rester. Qu’il faut aller de l’avant.

Le problème c’est que c’est une zone immense donc on a l’impression qu’il n’y a que ça au-delà de notre plan, or ce n’est pas vrai, des gens ont ramené des témoignages d’une zone d’énergie pure qui se “situe” après une seconde mort mais, c’est si “loin” et difficile d’en ramener des informations qu’il n’y a presque rien à ce sujet.

Je ne parle pas ici d’autres mondes/dimensions que Marc semble parcourir et qu’il est impossible de situer sur la cartographie Monroe. Le problème est bien là d’ailleurs, les voyageurs n’ont pas vraiment les moyens de savoir où ils sont exactement. Je comprends bien le principe des bulles de réalité locales décrit par Marc mais, ça ne m’aide pas à concevoir la big picture. Cependant je pense que c'est très difficile de donner rdv dans un monde X ou Y à quelqu'un qui lui même n'y a pas été d'abord tout seul ! Or il semble qu'on aille à tel ou tel endroit pour des raisons qui nous échappent et qui sont peut-être liées à notre itinéraire personnel... Donc on comprend la difficulté du truc. Des sorties collectives ont été effectuées par des TMI graduates mais, dans des zones connues par eux au préalable et "proches" du plan physique.

En tout cas. Pour ceux qui arrivent à voyager sans charge epsilon… c’est génial et probablement la meilleure expérience de ce qu’on peut avoir en étant incarné. Mais eux aussi ils auront leur propre progression à faire une fois morts. De ce qu’on peut avoir comme réponses d’entités d’autres dimensions, ça semble infini. Moi je m’interroge sur la subjectivité de tout ça. Je ne remets pas en question la réalité de ça mais justement, je me demande si l’univers n’est pas en fait perceptible uniquement de façon subjective. Même si les consciences désincarnées communiquent peut-être sur leurs perceptions individuelles, je me demande si la compréhension progressive de la réalité n’est pas en fait quelque chose de subjectif et intime dans son essence. Et si les différents consensus n’ont une solidité qui n’est en fait que le fruit d’une subjectivité qui s’accorde entre les consciences à tel instant et tel endroit. Et qui dépend aussi du niveau de “densification” (cf consensus relatifs sur la zone d’après-vie, par exemple sur la Library et son emplacement, mais vue avec différentes architectures par les gens : donc on pourrait dire, consensus archétypal avec variantes subjectives sur l’apparence)

Par contre je ne remets pas en question l'existence des projections puisque pour moi c'est tout-à-fait logique notre propre conscience créatrice (et mal entraînée, surtout au début des OBE) mette un peu le dawa mais il y a des techniques pour différencier les projections d'une rencontre avec une autre entité aussi réelle que soi.

Pour ce qui est du plan physique qui semble présenter des différences d’un point de vue out of body, en effet c’est troublant mais ça peut s’expliquer je pense par des caractéristiques de la conscience qui sont encore mal cernées. Ça n’exclut pas la présence d’éléments vérifiables qui permettent donc de faire des reality checks une fois le retour dans le corps effectué. Plein de gens l’ont fait  ;-).

Il y a aussi la vision de son propre corps éthérique par ses yeux physiques qui peut arriver, comme Thomas Moine l’a dit dans son super com et comme Robert Bruce l’a vécu aussi et le raconte dans Astral Dynamics.

Mais, c’est sûr que si tu es venu sur ce groupe en pensant trouver des preuves par A plus B, et des témoignages tous concordants sur les mêmes zones de l’univers mental, etc etc… Tu es forcément déçu et perdu, mais c’est parce que la conscience et les créations qui en sont issus (les univers) ne fonctionnent pas comme notre cerveau physique appréhende les choses.

Je suis d’accord avec Marie-Jeanne, je ne pense pas qu’essayer de comprendre comment fonctionne tout ça aide à faire des expériences, au contraire. Donc dans l’idéal, il faudrait se concentrer sur la pratique. Mais je te comprends car je suis comme toi, j’ai pas pu m’empêcher d’essayer de comprendre de façon intellectuelle, et donc je me suis plongée dans Robert Monroe, et Robert Bruce, entre autres. Hyper intéressant. Mais, la partie qui m’a aidée à sortir n’a pas été le descriptif de comment c’est foutu là-bas, je suppose même que c’était contre-productif puisque j’ai gambergé à mort là-dessus (j’ai même fait un énorme mapping de l’astral sur un schéma). La partie qui m’a aidée a été l’information et les techniques pratico-pratiques que ces 2 auteurs fournissent également en parallèle. Et je pense que quand on se lance dans ce training, il vaut mieux laisser tomber les circonvolutions théoriques. Car on ne pourra pas tout comprendre anyway, la cogitation sera sans fin. Alors que ce qu’on cherche à activer est l’“autre cerveau”.

Auteur: Internet

Info: Fil FB de Marc Auburn, 21 août 2023

[ métempsychose ] [ décorporation ] [ voyage hors du corps ] [ dubitation ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier cognitif

Des physiciens observent une transition de phase quantique "inobservable"

Mesure et l'intrication ont toutes deux une saveur non locale "étrange". Aujourd'hui, les physiciens exploitent cette nonlocalité pour sonder la diffusion de l'information quantique et la contrôler.

La mesure est l'ennemi de l'intrication. Alors que l'intrication se propage à travers une grille de particules quantiques - comme le montre cette simulation - que se passerait-il si l'on mesurait certaines des particules ici et là ? Quel phénomène triompherait ?

En 1935, Albert Einstein et Erwin Schrödinger, deux des physiciens les plus éminents de l'époque, se disputent sur la nature de la réalité.

Einstein avait fait des calculs et savait que l'univers devait être local, c'est-à-dire qu'aucun événement survenant à un endroit donné ne pouvait affecter instantanément un endroit éloigné. Mais Schrödinger avait fait ses propres calculs et savait qu'au cœur de la mécanique quantique se trouvait une étrange connexion qu'il baptisa "intrication" et qui semblait remettre en cause l'hypothèse de localité d'Einstein.

Lorsque deux particules sont intriquées, ce qui peut se produire lors d'une collision, leurs destins sont liés. En mesurant l'orientation d'une particule, par exemple, on peut apprendre que sa partenaire intriquée (si et quand elle est mesurée) pointe dans la direction opposée, quel que soit l'endroit où elle se trouve. Ainsi, une mesure effectuée à Pékin pourrait sembler affecter instantanément une expérience menée à Brooklyn, violant apparemment l'édit d'Einstein selon lequel aucune influence ne peut voyager plus vite que la lumière.

Einstein n'appréciait pas la portée de l'intrication (qu'il qualifiera plus tard d'"étrange") et critiqua la théorie de la mécanique quantique, alors naissante, comme étant nécessairement incomplète. Schrödinger défendit à son tour la théorie, dont il avait été l'un des pionniers. Mais il comprenait le dégoût d'Einstein pour l'intrication. Il admit que la façon dont elle semble permettre à un expérimentateur de "piloter" une expérience autrement inaccessible est "plutôt gênante".

Depuis, les physiciens se sont largement débarrassés de cette gêne. Ils comprennent aujourd'hui ce qu'Einstein, et peut-être Schrödinger lui-même, avaient négligé : l'intrication n'a pas d'influence à distance. Elle n'a pas le pouvoir de provoquer un résultat spécifique à distance ; elle ne peut distribuer que la connaissance de ce résultat. Les expériences sur l'intrication, telles que celles qui ont remporté le prix Nobel en 2022, sont maintenant devenues monnaie courante.

Au cours des dernières années, une multitude de recherches théoriques et expérimentales ont permis de découvrir une nouvelle facette du phénomène, qui se manifeste non pas par paires, mais par constellations de particules. L'intrication se propage naturellement dans un groupe de particules, établissant un réseau complexe de contingences. Mais si l'on mesure les particules suffisamment souvent, en détruisant l'intrication au passage, il est possible d'empêcher la formation du réseau. En 2018, trois groupes de théoriciens ont montré que ces deux états - réseau ou absence de réseau - rappellent des états familiers de la matière tels que le liquide et le solide. Mais au lieu de marquer une transition entre différentes structures de la matière, le passage entre la toile et l'absence de toile indique un changement dans la structure de l'information.

"Il s'agit d'une transition de phase dans l'information", explique Brian Skinner, de l'université de l'État de l'Ohio, l'un des physiciens qui a identifié le phénomène en premier. "Les propriétés de l'information, c'est-à-dire la manière dont l'information est partagée entre les choses, subissent un changement très brutal.

Plus récemment, un autre trio d'équipes a tenté d'observer cette transition de phase en action. Elles ont réalisé une série de méta-expériences pour mesurer comment les mesures elles-mêmes affectent le flux d'informations. Dans ces expériences, ils ont utilisé des ordinateurs quantiques pour confirmer qu'il est possible d'atteindre un équilibre délicat entre les effets concurrents de l'intrication et de la mesure. La découverte de la transition a lancé une vague de recherches sur ce qui pourrait être possible lorsque l'intrication et la mesure entrent en collision.

L'intrication "peut avoir de nombreuses propriétés différentes, bien au-delà de ce que nous avions imaginé", a déclaré Jedediah Pixley, théoricien de la matière condensée à l'université Rutgers, qui a étudié les variations de la transition.

Un dessert enchevêtré

L'une des collaborations qui a permis de découvrir la transition d'intrication est née autour d'un pudding au caramel collant dans un restaurant d'Oxford, en Angleterre. En avril 2018, Skinner rendait visite à son ami Adam Nahum, un physicien qui travaille actuellement à l'École normale supérieure de Paris. Au fil d'une conversation tentaculaire, ils se sont retrouvés à débattre d'une question fondamentale concernant l'enchevêtrement et l'information.

Tout d'abord, un petit retour en arrière. Pour comprendre le lien entre l'intrication et l'information, imaginons une paire de particules, A et B, chacune dotée d'un spin qui peut être mesuré comme pointant vers le haut ou vers le bas. Chaque particule commence dans une superposition quantique de haut et de bas, ce qui signifie qu'une mesure produit un résultat aléatoire - soit vers le haut, soit vers le bas. Si les particules ne sont pas intriquées, les mesurer revient à jouer à pile ou face : Le fait d'obtenir pile ou face avec l'une ne vous dit rien sur ce qui se passera avec l'autre.

Mais si les particules sont intriquées, les deux résultats seront liés. Si vous trouvez que B pointe vers le haut, par exemple, une mesure de A indiquera qu'il pointe vers le bas. La paire partage une "opposition" qui ne réside pas dans l'un ou l'autre membre, mais entre eux - un soupçon de la non-localité qui a troublé Einstein et Schrödinger. L'une des conséquences de cette opposition est qu'en mesurant une seule particule, on en apprend plus sur l'autre. "La mesure de B m'a d'abord permis d'obtenir des informations sur A", a expliqué M. Skinner. "Cela réduit mon ignorance sur l'état de A."

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, tu mesurais certains spins ici et là ? Si tu les mesurais tous en permanence, l'intrication disparaîtrait de façon ennuyeuse. Mais si tu les mesures sporadiquement, par quelques spins seulement, quel phénomène sortira vainqueur ? L'intrication ou la mesure ?

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, on mesurait certains spins ici et là ? Les mesurer tous en permanence ferait disparaître toute l'intrication d'une manière ennuyeuse. Mais si on en mesure sporadiquement quelques spins seulement, quel phénomène sortirait vainqueur ? L'intrication ou la mesure ?

Skinner, répondit qu'il pensait que la mesure écraserait l'intrication. L'intrication se propage de manière léthargique d'un voisin à l'autre, de sorte qu'elle ne croît que de quelques particules à la fois. Mais une série de mesures pourrait toucher simultanément de nombreuses particules tout au long de la longue chaîne, étouffant ainsi l'intrication sur une multitude de sites. S'ils avaient envisagé cet étrange scénario, de nombreux physiciens auraient probablement convenu que l'intrication ne pouvait pas résister aux mesures.

"Selon Ehud Altman, physicien spécialiste de la matière condensée à l'université de Californie à Berkeley, "il y avait une sorte de folklore selon lequel les états très intriqués sont très fragiles".

Mais Nahum, qui réfléchit à cette question depuis l'année précédente, n'est pas de cet avis. Il imaginait que la chaîne s'étendait dans le futur, instant après instant, pour former une sorte de clôture à mailles losangées. Les nœuds étaient les particules, et les connexions entre elles représentaient les liens à travers lesquels l'enchevêtrement pouvait se former. Les mesures coupant les liens à des endroits aléatoires. Si l'on coupe suffisamment de maillons, la clôture s'écroule. L'intrication ne peut pas se propager. Mais jusque là, selon Nahum, même une clôture en lambeaux devrait permettre à l'intrication de se propager largement.

Nahum a réussi à transformer un problème concernant une occurrence quantique éphémère en une question concrète concernant une clôture à mailles losangées. Il se trouve qu'il s'agit d'un problème bien étudié dans certains cercles - la "grille de résistance vandalisée" - et que Skinner avait étudié lors de son premier cours de physique de premier cycle, lorsque son professeur l'avait présenté au cours d'une digression.

"C'est à ce moment-là que j'ai été vraiment enthousiasmé", a déclaré M. Skinner. "Il n'y a pas d'autre moyen de rendre un physicien plus heureux que de montrer qu'un problème qui semble difficile est en fait équivalent à un problème que l'on sait déjà résoudre."

Suivre l'enchevêtrement

Mais leurs plaisanteries au dessert n'étaient rien d'autre que des plaisanteries. Pour tester et développer rigoureusement ces idées, Skinner et Nahum ont joint leurs forces à celles d'un troisième collaborateur, Jonathan Ruhman, de l'université Bar-Ilan en Israël. L'équipe a simulé numériquement les effets de la coupe de maillons à différentes vitesses dans des clôtures à mailles losangées. Ils ont ensuite comparé ces simulations de réseaux classiques avec des simulations plus précises mais plus difficiles de particules quantiques réelles, afin de s'assurer que l'analogie était valable. Ils ont progressé lentement mais sûrement.

Puis, au cours de l'été 2018, ils ont appris qu'ils n'étaient pas les seuls à réfléchir aux mesures et à l'intrication.

Matthew Fisher, éminent physicien de la matière condensée à l'université de Californie à Santa Barbara, s'était demandé si l'intrication entre les molécules dans le cerveau pouvait jouer un rôle dans notre façon de penser. Dans le modèle que lui et ses collaborateurs étaient en train de développer, certaines molécules se lient occasionnellement d'une manière qui agit comme une mesure et tue l'intrication. Ensuite, les molécules liées changent de forme d'une manière qui pourrait créer un enchevêtrement. Fisher voulait savoir si l'intrication pouvait se développer sous la pression de mesures intermittentes - la même question que Nahum s'était posée.

"C'était nouveau", a déclaré M. Fisher. "Personne ne s'était penché sur cette question avant 2018.

Dans le cadre d'une coopération universitaire, les deux groupes ont coordonné leurs publications de recherche l'un avec l'autre et avec une troisième équipe étudiant le même problème, dirigée par Graeme Smith de l'université du Colorado, à Boulder.

"Nous avons tous travaillé en parallèle pour publier nos articles en même temps", a déclaré M. Skinner.

En août, les trois groupes ont dévoilé leurs résultats. L'équipe de Smith était initialement en désaccord avec les deux autres, qui soutenaient tous deux le raisonnement de Nahum inspiré de la clôture : Dans un premier temps, l'intrication a dépassé les taux de mesure modestes pour se répandre dans une chaîne de particules, ce qui a entraîné une entropie d'intrication élevée. Puis, lorsque les chercheurs ont augmenté les mesures au-delà d'un taux "critique", l'intrication s'est arrêtée - l'entropie d'intrication a chuté.

La transition semblait exister, mais il n'était pas évident pour tout le monde de comprendre où l'argument intuitif - selon lequel l'intrication de voisin à voisin devait être anéantie par les éclairs généralisés de la mesure - s'était trompé.

Dans les mois qui ont suivi, Altman et ses collaborateurs à Berkeley ont découvert une faille subtile dans le raisonnement. "On ne tient pas compte de la diffusion (spread) de l'information", a déclaré M. Altman.

Le groupe d'Altman a souligné que toutes les mesures ne sont pas très informatives, et donc très efficaces pour détruire l'intrication. En effet, les interactions aléatoires entre les particules de la chaîne ne se limitent pas à l'enchevêtrement. Elles compliquent également considérablement l'état de la chaîne au fil du temps, diffusant effectivement ses informations "comme un nuage", a déclaré M. Altman. Au bout du compte, chaque particule connaît l'ensemble de la chaîne, mais la quantité d'informations dont elle dispose est minuscule. C'est pourquoi, a-t-il ajouté, "la quantité d'intrication que l'on peut détruire [à chaque mesure] est ridiculement faible".

En mars 2019, le groupe d'Altman a publié une prépublication détaillant comment la chaîne cachait efficacement les informations des mesures et permettait à une grande partie de l'intrication de la chaîne d'échapper à la destruction. À peu près au même moment, le groupe de Smith a mis à jour ses conclusions, mettant les quatre groupes d'accord.

La réponse à la question de Nahum était claire. Une "transition de phase induite par la mesure" était théoriquement possible. Mais contrairement à une transition de phase tangible, telle que le durcissement de l'eau en glace, il s'agissait d'une transition entre des phases d'information - une phase où l'information reste répartie en toute sécurité entre les particules et une phase où elle est détruite par des mesures répétées.

C'est en quelque sorte ce que l'on rêve de faire dans la matière condensée, a déclaré M. Skinner, à savoir trouver une transition entre différents états. "Maintenant, on se demande comment on le voit", a-t-il poursuivi.

 Au cours des quatre années suivantes, trois groupes d'expérimentateurs ont détecté des signes du flux distinct d'informations.

Trois façons de voir l'invisible

Même l'expérience la plus simple permettant de détecter la transition intangible est extrêmement difficile. "D'un point de vue pratique, cela semble impossible", a déclaré M. Altman.

L'objectif est de définir un certain taux de mesure (rare, moyen ou fréquent), de laisser ces mesures se battre avec l'intrication pendant un certain temps et de voir quelle quantité d'entropie d'intrication vous obtenez dans l'état final. Ensuite, rincez et répétez avec d'autres taux de mesure et voyez comment la quantité d'intrication change. C'est un peu comme si l'on augmentait la température pour voir comment la structure d'un glaçon change.

Mais les mathématiques punitives de la prolifération exponentielle des possibilités rendent cette expérience presque impensablement difficile à réaliser.

L'entropie d'intrication n'est pas, à proprement parler, quelque chose que l'on peut observer. C'est un nombre que l'on déduit par la répétition, de la même manière que l'on peut éventuellement déterminer la pondération d'un dé chargé. Lancer un seul 3 ne vous apprend rien. Mais après avoir lancé le dé des centaines de fois, vous pouvez connaître la probabilité d'obtenir chaque chiffre. De même, le fait qu'une particule pointe vers le haut et une autre vers le bas ne signifie pas qu'elles sont intriquées. Il faudrait obtenir le résultat inverse plusieurs fois pour en être sûr.

Il est beaucoup plus difficile de déduire l'entropie d'intrication d'une chaîne de particules mesurées. L'état final de la chaîne dépend de son histoire expérimentale, c'est-à-dire du fait que chaque mesure intermédiaire a abouti à une rotation vers le haut ou vers le bas. Pour accumuler plusieurs copies du même état, l'expérimentateur doit donc répéter l'expérience encore et encore jusqu'à ce qu'il obtienne la même séquence de mesures intermédiaires, un peu comme s'il jouait à pile ou face jusqu'à ce qu'il obtienne une série de "têtes" d'affilée. Chaque mesure supplémentaire rend l'effort deux fois plus difficile. Si vous effectuez 10 mesures lors de la préparation d'une chaîne de particules, par exemple, vous devrez effectuer 210 ou 1 024 expériences supplémentaires pour obtenir le même état final une deuxième fois (et vous pourriez avoir besoin de 1 000 copies supplémentaires de cet état pour déterminer son entropie d'enchevêtrement). Il faudra ensuite modifier le taux de mesure et recommencer.

L'extrême difficulté à détecter la transition de phase a amené certains physiciens à se demander si elle était réellement réelle.

"Vous vous fiez à quelque chose d'exponentiellement improbable pour le voir", a déclaré Crystal Noel, physicienne à l'université Duke. "Cela soulève donc la question de savoir ce que cela signifie physiquement."

Noel a passé près de deux ans à réfléchir aux phases induites par les mesures. Elle faisait partie d'une équipe travaillant sur un nouvel ordinateur quantique à ions piégés à l'université du Maryland. Le processeur contenait des qubits, des objets quantiques qui agissent comme des particules. Ils peuvent être programmés pour créer un enchevêtrement par le biais d'interactions aléatoires. Et l'appareil pouvait mesurer ses qubits.

Le groupe a également eu recours à une deuxième astuce pour réduire le nombre de répétitions - une procédure technique qui revient à simuler numériquement l'expérience parallèlement à sa réalisation. Ils savaient ainsi à quoi s'attendre. C'était comme si on leur disait à l'avance comment le dé chargé était pondéré, et cela a permis de réduire le nombre de répétitions nécessaires pour mettre au point la structure invisible de l'enchevêtrement.

Grâce à ces deux astuces, ils ont pu détecter la transition d'intrication dans des chaînes de 13 qubits et ont publié leurs résultats à l'été 2021.

"Nous avons été stupéfaits", a déclaré M. Nahum. "Je ne pensais pas que cela se produirait aussi rapidement."

À l'insu de Nahum et de Noel, une exécution complète de la version originale de l'expérience, exponentiellement plus difficile, était déjà en cours.

À la même époque, IBM venait de mettre à niveau ses ordinateurs quantiques, ce qui leur permettait d'effectuer des mesures relativement rapides et fiables des qubits à la volée. Jin Ming Koh, étudiant de premier cycle à l'Institut de technologie de Californie, avait fait une présentation interne aux chercheurs d'IBM et les avait convaincus de participer à un projet visant à repousser les limites de cette nouvelle fonctionnalité. Sous la supervision d'Austin Minnich, physicien appliqué au Caltech, l'équipe a entrepris de détecter directement la transition de phase dans un effort que Skinner qualifie d'"héroïque".

 Après avoir demandé conseil à l'équipe de Noel, le groupe a simplement lancé les dés métaphoriques un nombre suffisant de fois pour déterminer la structure d'intrication de chaque historique de mesure possible pour des chaînes comptant jusqu'à 14 qubits. Ils ont constaté que lorsque les mesures étaient rares, l'entropie d'intrication doublait lorsqu'ils doublaient le nombre de qubits - une signature claire de l'intrication qui remplit la chaîne. Les chaînes les plus longues (qui impliquaient davantage de mesures) ont nécessité plus de 1,5 million d'exécutions sur les appareils d'IBM et, au total, les processeurs de l'entreprise ont fonctionné pendant sept mois. Il s'agit de l'une des tâches les plus intensives en termes de calcul jamais réalisées à l'aide d'ordinateurs quantiques.

Le groupe de M. Minnich a publié sa réalisation des deux phases en mars 2022, ce qui a permis de dissiper tous les doutes qui subsistaient quant à la possibilité de mesurer le phénomène.

"Ils ont vraiment procédé par force brute", a déclaré M. Noel, et ont prouvé que "pour les systèmes de petite taille, c'est faisable".

Récemment, une équipe de physiciens a collaboré avec Google pour aller encore plus loin, en étudiant l'équivalent d'une chaîne presque deux fois plus longue que les deux précédentes. Vedika Khemani, de l'université de Stanford, et Matteo Ippoliti, aujourd'hui à l'université du Texas à Austin, avaient déjà utilisé le processeur quantique de Google en 2021 pour créer un cristal de temps, qui, comme les phases de propagation de l'intrication, est une phase exotique existant dans un système changeant.

En collaboration avec une vaste équipe de chercheurs, le duo a repris les deux astuces mises au point par le groupe de Noel et y a ajouté un nouvel ingrédient : le temps. L'équation de Schrödinger relie le passé d'une particule à son avenir, mais la mesure rompt ce lien. Ou, comme le dit Khemani, "une fois que l'on introduit des mesures dans un système, cette flèche du temps est complètement détruite".

Sans flèche du temps claire, le groupe a pu réorienter la clôture à mailles losangiques de Nahum pour accéder à différents qubits à différents moments, ce qu'ils ont utilisé de manière avantageuse. Ils ont notamment découvert une transition de phase dans un système équivalent à une chaîne d'environ 24 qubits, qu'ils ont décrite dans un article publié en mars.

Puissance de la mesure

Le débat de Skinner et Nahum sur le pudding, ainsi que les travaux de Fisher et Smith, ont donné naissance à un nouveau sous-domaine parmi les physiciens qui s'intéressent à la mesure, à l'information et à l'enchevêtrement. Au cœur de ces différentes lignes de recherche se trouve une prise de conscience croissante du fait que les mesures ne se contentent pas de recueillir des informations. Ce sont des événements physiques qui peuvent générer des phénomènes véritablement nouveaux.

"Les mesures ne sont pas un sujet auquel les physiciens de la matière condensée ont pensé historiquement", a déclaré M. Fisher. Nous effectuons des mesures pour recueillir des informations à la fin d'une expérience, a-t-il poursuivi, mais pas pour manipuler un système.

En particulier, les mesures peuvent produire des résultats inhabituels parce qu'elles peuvent avoir le même type de saveur "partout-tout-enmême-temps" qui a autrefois troublé Einstein. Au moment de la mesure, les possibilités alternatives contenues dans l'état quantique s'évanouissent, pour ne jamais se réaliser, y compris celles qui concernent des endroits très éloignés dans l'univers. Si la non-localité de la mécanique quantique ne permet pas des transmissions plus rapides que la lumière comme le craignait Einstein, elle permet d'autres exploits surprenants.

"Les gens sont intrigués par le type de nouveaux phénomènes collectifs qui peuvent être induits par ces effets non locaux des mesures", a déclaré M. Altman.

L'enchevêtrement d'une collection de nombreuses particules, par exemple, a longtemps été considéré comme nécessitant au moins autant d'étapes que le nombre de particules que l'on souhaitait enchevêtrer. Mais l'hiver dernier, des théoriciens ont décrit un moyen d'y parvenir en beaucoup moins d'étapes grâce à des mesures judicieuses. Au début de l'année, le même groupe a mis l'idée en pratique et façonné une tapisserie d'enchevêtrement abritant des particules légendaires qui se souviennent de leur passé. D'autres équipes étudient d'autres façons d'utiliser les mesures pour renforcer les états intriqués de la matière quantique.

Cette explosion d'intérêt a complètement surpris Skinner, qui s'est récemment rendu à Pékin pour recevoir un prix pour ses travaux dans le Grand Hall du Peuple sur la place Tiananmen. (Skinner avait d'abord cru que la question de Nahum n'était qu'un exercice mental, mais aujourd'hui, il n'est plus très sûr de la direction que tout cela prend.)

"Je pensais qu'il s'agissait d'un jeu amusant auquel nous jouions, mais je ne suis plus prêt à parier sur l'idée qu'il n'est pas utile."

Auteur: Internet

Info: Quanta Magazine, Paul Chaikin, sept 2023

[ passage inversant ] [ esprit-matière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel