Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 46
Temps de recherche: 0.0442s

compromission

En mai 68 mai et dans le sillage de l’événement sont apparus de nouveaux thèmes portant sur la sexualité, l’éducation des enfants, la psychiatrie, la culture, qui sont venus interpeller les schémas de la lutte des classes et les idéologies de l’extrême gauche traditionnelle. Le gauchisme culturel naît précisément dans ce cadre et c’est lui qui va le premier déplacer l’axe central de la contestation vers les questions sociétales, à la manière de l’époque, c’est-à-dire de façon radicale et délibérément provocatrice. Il est ainsi devenu le vecteur d’une révolution culturelle qui a mis à mal l’orthodoxie des groupuscules d’extrême-gauche, avant de concerner l’ensemble de la gauche et de se répandre dans la société. Quand on étudie la littérature gauchiste de l’immédiat après-Mai, on est frappé de retrouver nombre de thèmes du gauchisme culturel d’aujourd’hui, mais, en même temps, ces derniers semblent bien mièvres et presque banalisés en regard de la rage dont faisaient preuve les révolutionnaires de l’époque. Leur remise en question radicale a concerné bien des domaines dont nous ne pouvons rendre compte dans le cadre limité de cet article 34. Mais il suffit d’évoquer ce qu’il en fut en matière de mœurs et de sexualité au début des années 1970 pour mieux cerner le fossé qui nous sépare du présent. Le désir était alors brandi comme une arme de subversion de l’ordre établi qui devait faire sauter tous les interdits, les tabous et les barrières. Il s’agissait de faire tomber tous les masques, en pourchassant les justifications et les refoulements au cœur même des discours les plus rationnels et les plus savants. Être "authentique", c’était oser, si l’on peut dire, regarder le désir en face et ne plus craindre d’exprimer en toute liberté le chaos que l’on porte en soi. C’est sans doute pour cette raison que sur le front du désir la classe ouvrière a pu apparaître muette à beaucoup.

Les religions juives et chrétiennes, la "morale bourgeoise", l’idéologie, le capitalisme réprimaient le désir, il s’agissait alors ouvertement de tout mettre à bas pour le libérer. Le mariage et la famille n’échappaient pas à un pareil traitement. Ils étaient considérés comme un dispositif central dans ce vaste système de répression, la cellule de base du système visant à castrer et à domestiquer le désir en le ramenant dans les credo de la normalité. Les lesbiennes et les gays revendiquaient clairement leur différence en n’épargnant pas les " hétéro-flics", la "virilité fasciste", le patriarcat. Il était alors totalement exclu de se marier et de rentrer dans le rang.

On peut mesurer les différences et le chemin parcouru depuis lors. Nous sommes passés d’une dynamique de transgression à une banalisation paradoxale qui entend jouer sur tous les plans à la fois: celui de la figure du contestataire de l’ordre établi, celui de la minorité opprimée, celui de la victime ayant des droits et exigeant de l’État qu’il satisfasse au plus vite ses revendications, celui du Républicain qui défend la valeur d’égalité, celui du bon père et de la bonne mère de famille…

Mais, en même temps, force est de constater que nombre de thèmes de l’époque font écho aux postures d’aujourd’hui. Il en est ainsi du culte des sentiments développé particulièrement au sein du MLF. Renversant la perspective du militantisme traditionnel, il s’agissait déjà de partir de soi, de son "vécu quotidien", de partager ce vécu avec d’autres et de le faire connaître publiquement. On soulignait déjà l’importance d’une parole au plus près des affects et des sentiments. Alors que l’éducation voulait apprendre à les dominer, il fallait au contraire ne plus craindre de se laisser porter par eux. Ils exprimaient une révolte à l’état brut et une vérité bien plus forte que celle qui s’exprime à travers la prédominance accordée à la raison. À l’inverse de l’idée selon laquelle il ne fallait pas mêler les sentiments personnels et la politique, il s’agissait tout au contraire de faire de la politique à partir des sentiments. Trois préceptes du MLF nous paraissent condenser le renversement qui s’opère dès cette période: "Le personnel est politique et le politique est personnel";  "Nous avons été dupés par l’idéologie dominante qui fait comme si “la vie publique” était gouvernée par d’autres principes que la vie privée”; "Dans nos groupes, partageons nos sentiments et rassemblons-les et voyons où ils nous mèneront. Ils nous mèneront aux idées puis à l’action". Ces préceptes condensent une nouvelle façon de faire de la "politique" qui fera de nombreux adeptes.

Resterait à tracer la genèse de ce curieux destin du gauchisme culturel jusqu’à aujourd’hui, la perpétuation de certains de ses thèmes et leur transformation. L’analyse de l’ensemble du parcours reste à faire, mais cette dernière implique à notre sens la prise en compte du croisement qui s’est opéré entre ce gauchisme de première génération avec au moins trois grands courants: le christianisme de gauche, l’écologie politique et les droits de l’homme. C’est dans la rencontre avec ces courants que le gauchisme culturel s’est pacifié, pris un côté boy-scout et faussement gentillet, et qu’il s’est mis à revendiquer des droits. Mais c’est surtout dans les années 1980 que le gauchisme culturel va recevoir sa consécration définitive dans le champ politique, plus précisément au tournant des années 1983-1984, au moment où la gauche change de politique économique sans le dire clairement et entame la "modernisation " Le gauchisme culturel va alors servir de substitut à la crise de sa doctrine et masquer un changement de politique économique mal assumé. À partir de ce moment, la gauche au pouvoir va intégrer l’héritage impossible de mai 68, faire du surf sur les évolutions dans tous les domaines, et apparaître clairement aux yeux de l’opinion comme étant à l’avant-garde dans le bouleversement des mœurs et de la "culture". Nous ne sommes pas sortis de cette situation.

Au terme de ce parcours qui rend compte des glissements opérés par la gauche et de l’influence du gauchisme culturel en son sein, il nous paraît possible de poser sans détour ce qui n’est plus tout à fait une hypothèse: nous assistons à la fin d’un cycle historique dont les origines remontent au XIXe siècle; la gauche a atteint son point avancé de décomposition, elle est passée à autre chose tout en continuant de faire semblant qu’il n’en est rien; il n’est pas sûr qu’elle puisse s’en remettre. Le gauchisme culturel, qui est devenu hégémonique à gauche et dans la société, a été un vecteur de cette décomposition et son antilibéralisme intellectuel, pour ne pas dire sa bêtise, est un des principaux freins à son renouvellement. La gauche est-elle capable de rompre clairement avec lui ? Rien n’est certain étant donné la prégnance de ses postures et de ses schémas de pensée.


Auteur: Le Goff Jean-Pierre

Info: "Du gauchisme culturel et de ses avatars" , Le Débat n° 176, septembre-octobre 2013, p.49-55.

[ hypocrisie ] [ détournement ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

hommage

Jacques Lacan a parlé. Pourquoi?

Pour le savoir, faut-il écouter ceux qui, depuis sa mort, parlent moins de lui que de leur propre position par rapport à lui ? Ce n’est pas le bon moyen.

Ce qu’il faut, c’est rappeler qui il était. Il était un homme ; cet homme cherchait la vérité ; le chemin qu’il ouvrait pour la chercher était la parole.

L’HOMME

Les sciences de l’homme sont sans doute ainsi désignées parce qu’elles nous enrichissent d’un savoir sur diverses fonctions de l’homme ; ce faisant, elles nous permettent de masquer et d’oublier notre ignorance de l’homme lui-même, notre inattention au fait que chaque homme est un mystère. Un mystère qui reste insondable.

Jacques Lacan, c’est d’abord un homme, attentif à l’homme, à sa réalité toujours inaccessible, à son désir dont le caractère propre est de ne jamais pouvoir être satisfait.

Dans le monde intellectuel, il était classé tantôt comme psychanalyste, tantôt comme philosophe, voire comme poète, ou encore comme structuraliste, surréaliste, acteur… la liste pourrait s’allonger. Or il est avant tout un homme, dont il ne suffit pas de dire qu’il était humain.

Sa contribution à la psychanalyse, si importante qu’elle soit, ne permet pas de dire qui il était. Bien au contraire, c’est parce qu’il était cet homme unique, nommé Jacques Lacan, qu’il a pu mettre en valeur la découverte inaugurée par Freud : celle de l’inconscient. Mise en valeur telle que le monde des psychanalystes ne l’a pas accueillie sans émoi.

Mais qu’est-ce donc que l’inconscient? En entendant ce mot, chacun se soucie de le définir. Que révèle un tel souci? Il indique le plus souvent moins une recherche de la clarté, que la fuite d’un mystère qui inquiète et qui, cependant, caractérise la vie psychique dans sa réalité.

L’inconscient échappe à toute définition ; il désigne l’homme lui-même dans cette dimension de son mystère qui ne donne aucune prise à sa conscience.

Parler à l’homme de l’inconscient, c’est lui rappeler ce qu’il s’applique à oublier ; c’est le sauver de cet oubli que tout est organisé pour favoriser en cette fin du vingtième siècle. C’est lui rappeler en effet que son centre est ailleurs qu’en lui-même. C’est lui faire découvrir que le chemin à suivre n’est pas celui que Descartes a inauguré.

"Je pense, donc je suis."

Cette déduction sur laquelle Descartes prend appui va-t-elle lui permettre de connaître ce "Je" qui pense ? Lacan réplique: "Je ne suis pas ce que je pense" La vérité ainsi formulée jaillit de la découverte de l’inconscient, autrement dit de l’homme lui-même. La reconnaissance de l’inconscient permet à l’homme d’avoir accès à sa réalité; loin de s’enfermer dans les limites de sa vie consciente, il doit s’ouvrir à une relation qui le constitue, à une relation avec l’Autre.

Une telle relation suscite une recherche: la recherche de la vérité, de la vérité sur l’Autre et inséparablement, de la vérité sur l’homme, constitué par sa relation à l’Autre.

LA VERITÉ

Jacques Lacan: un homme; donc un chercheur de vérité.

La vérité. Ce que désigne ce mot fait peur. Chacun, comme Pilate, réagit en disant: "Qu’est-ce que la vérité?" et s’en allant, sans attendre la réponse.

Lacan a découvert, grâce à Freud, le moyen d’entendre la réponse. "Freud, écrit-il, a su laisser, sous le nom d’inconscient, la vérité parler."

Laisser parler la vérité. Voilà le moyen, le seul, de la connaître. Aucun savoir ne donne accès à cette connaissance. Ecouter la vérité est l’unique nécessaire. Si la conscience peut entendre la vérité, elle s’y ferme souvent. L’inconscient est la voix de la vérité refoulée; plus précisément, il est la voie, c’est-à-dire le chemin par lequel elle passe, lorsque l’homme a refusé de l’entendre.

Ici prend place l’intervention du psychanalyste. Il se tait, mais il invite à parler, pour chercher à entendre la vérité qui va passer par des chemins inattendus, la vérité dont va peut-être accoucher l’homme qui parle, non sans douleur.

Ce que Lacan invite le psychanalyste à écouter, est-ce le malade? C’est bien plutôt la vérité que celui-ci a refoulée la vérité de son désir. C’est ce type d’écoute qui fonde sa méthode de psychanalyste.

Il s’agit d’écouter la vérité pour la dire. Mais Lacan sait "qu’il est impossible de dire toute la vérité c’est par cet impossible que la vérité tient au réel."

Le réel est en effet inaccessible dans sa plénitude. Nous le réduisons à ce que nous en savons, mais nous pouvons nous ouvrir à la connaissance du réel et répondre ainsi au désir profond qui nous constitue. Mutiler ce désir nous rend malades, psychologiquement, ou spirituellement. La santé, comme la sainteté exige que nous cherchions la vérité, et, pour cela, que nous l’écoutions parler.

LA PAROLE

Nous pouvons répondre ici à notre question initiale, "Pourquoi Jacques Lacan parle-t-il?" Car il parle encore depuis sa mort.

On lui a reproché son style, et l’obscurité qui le caractérise. Il réplique: "il suffit de dix ans pour que ce que j’écris devienne clair pour tous."

En effet chaque fois qu’un homme est porteur, non d’un savoir à communiquer, mais d’une parole invitant à chercher la vérité et, pour cela, à l’écouter, il se heurte à un refus qui se masque souvent derrière une accusation: "Ce qu’il dit est impossible à entendre." (Évangile selon Saint-Jean 6,60)

Lacan n’a pas parlé pour autre chose que pour ouvrir la porte à la Parole qui vient d’ailleurs, qui est la Parole de l’Autre et dont l’inconscient atteste la présence; cette présence est réelle et elle est manifestée dans sa réalité par la peur qu’elle provoque, et le refus d’écouter qui est le fruit de cette peur.

À travers l’œuvre écrite de Lacan, que faut-il donc chercher ? Un enseignement oral inachevé et figé ? Nullement, Ce qu’il faut découvrir, c’est un homme en quête de vérité, vérité qui est le trésor évoqué dans la fable: il fallait creuser le champ pour y trouver un trésor caché. Le trésor appartient à ceux qui apprennent par expérience que ce trésor n’est rien qu’on puisse posséder.

Car le bonheur de l’homme, c’est de désirer s’ouvrir à la Parole de l’Autre. Ce désir est suscité par une présence sans laquelle l’homme n’est plus lui-même et grâce à laquelle jaillit de lui une parole qui rend témoignage à la vérité, une parole qui exprime son désir toujours nouveau de la source de sa vie d’homme.

La parole de Jacques Lacan inquiète les hommes qu’elle oblige à sortir de leur fausse paix, en posant la vraie question, la question que voici. Je n’ai pas à me demander en effet: "Que posséder ou que savoir pour devenir un homme?" La vraie question, c’est :

"Qui m’appelle à trouver dans sa recherche le sens de ma vie?"

Auteur: Lacan Marc-François

Info: Sermon prononcé à la mémoire de son frère, Jacques Lacan, le 10 septembre 1981 en l’église Saint Pierre du Gros Caillou

[ résumé ] [ legs à la postérité ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

manipulation des masses

De l'hégémonie du dollar au réchauffement climatique : mondialisation, glyphosate et doctrine du consentement.

Depuis l'abandon des accords de Bretton Woods en 1971, il y a eu un changement tectonique continu en Occident. Qui s'est accéléré lorsque l'URSS a pris fin et a abouti à la " mondialisation néolibérale " que nous connaissons aujourd'hui.

Dans le même temps, une campagne sans précédent a été menée pour réinventer le consensus social en Occident. Une partie de cette stratégie consistant à amener les populations des pays occidentaux à se focaliser sur le "réchauffement climatique", l'"équité entre les sexes" et l'"antiracisme". Les effets dévastateurs et les injustices causés par le capitalisme mondialisé et le militarisme qui en découle restant largement inexprimé pour la masse des gens.

Tel est l'argument présenté par Denis Rancourt, chercheur à l'Ontario Civil Liberties Association, dans un nouveau rapport. M. Rancourt est un ancien professeur titulaire de physique à l'Université d'Ottawa au Canada et auteur de : "La géoéconomie et la géo-politique conduisent à des époques successives de mondialisation prédatrice et d'ingénierie sociale : Historical emergence of climate change, gender equity, and antiracism as state doctrines' (avril 2019)."

Dans ce rapport, Rancourt fait référence au livre de Michael Hudson de 1972 intitulé "Super Imperialism" : The Economic Strategy of American Empire" pour aider à expliquer le rôle clé du maintien de l'hégémonie du dollar et l'importance du pétrodollar dans la domination mondiale des États-Unis. Outre l'importance du pétrole, M. Rancourt soutient que les États-Unis ont un intérêt existentiel à faire en sorte que les opioïdes soient commercialisés en dollars américains, un autre grand produit mondial. Ce qui explique en partie l'occupation américaine de l'Afghanistan. Il souligne également l'importance de l'agro-industrie et de l'industrie de l'armement américaines pour la réalisation des objectifs géostratégiques des États-Unis.

Depuis la chute de l'URSS en 1991, M. Rancourt indique que les campagnes de guerre américaines ont, entre autres, protégé le dollar américain de l'abandon, détruit des nations en quête de souveraineté contre la domination américaine, assuré le commerce de l'opium, renforcé leur contrôle du pétrole et entravé l'intégration eurasiatique. En outre, nous avons vu certains pays faire face à un bombardement de sanctions et d'hostilité dans une tentative de détruire des centres de production d'énergie que les États-Unis ne contrôlent pas, notamment la Russie.

Il souligne également les impacts dans les pays occidentaux, y compris : la perte relative systématique du rang économique de la classe moyenne, la montée du sans-abrisme urbain, la décimation de la classe ouvrière industrielle, les méga-fusions des entreprises, la montée des inégalités, le démantèlement du bien-être, la spéculation financière, les salaires qui stagnent, les dettes, la dérégulation et les privatisation. De plus, l'assouplissement accru de la réglementation des aliments et des médicaments a entraîné une augmentation spectaculaire de l'utilisation de l'herbicide glyphosate, qui s'est accompagnée d'une recrudescence de nombreuses maladies et affections chroniques.

Face à cette dévastation, les pays occidentaux ont dû obtenir le maintien du consentement de leurs propres populations. Pour aider à expliquer comment cela a été réalisé, Rancourt se concentre sur l'équité entre les sexes, l'antiracisme et le réchauffement climatique en tant que doctrines d'État qui ont été utilisées pour détourner l'attention des machinations de l'empire américain (et aussi pour empêcher la prise de conscience de classe). J'ai récemment interrogé Denis Rancourt sur cet aspect de son rapport.

CT : Pouvez-vous nous en dire un peu plus sur vous et sur la façon dont vous avez produit ce rapport ? Quel est son objectif ?

DR : Ancien professeur de physique, scientifique de l'environnement et défenseur des droits civils, je travaille actuellement comme chercheur pour l'Ontario Civil Liberties Association (ocla.ca). Au cours d'une conversation que j'ai eue avec le directeur exécutif de l'OCLA au sujet des droits civils, nous avons identifié plusieurs phénomènes sociaux et économiques importants qui semblaient liés au début des années 1990. J'ai donc fini par m'installer pour faire ce "gros boulot", du point de vue de la recherche.

Bien que nous ne manquions pas d'intellectuels et d'experts engagés pour guider notre perception à tort, mes recherches démontrent qu'il existe un lien entre la montée en flèche de la répression et de l'exploitation à grande échelle des populations nationales et l'accélération d'une mondialisation agressive et abusive.

CT : Dans votre rapport, vous avez décrit les conséquences de l'abandon de Bretton Woods et de la dissolution de l'URSS en termes d'hégémonie du dollar, du militarisme américain et des effets dévastateurs de la "mondialisation néolibérale" tant pour les États nations que pour les citoyens.

Il ne fait guère de doute que les analystes russes et chinois comprennent bien ce que j'ai exposé dans mon rapport. Par exemple, en prévision de la guerre commerciale de Trump, le discours prononcé en avril 2015 par le major-général Qiao Liang de l'Armée populaire de libération du peuple devant le Comité central et le bureau du gouvernement du Parti communiste chinois, comprenait ce qui suit :

"Depuis ce jour [dissolution de Bretton Woods], un véritable empire financier a émergé, l'hégémonie du dollar américain s'est établie, et nous sommes entrés dans une véritable ère de monnaie de papier. Il n'y a pas de métal précieux derrière le dollar américain. Le crédit du gouvernement est le seul soutien du dollar américain. Les États-Unis tirent profit du monde entier. Cela signifie que les Américains peuvent obtenir des richesses matérielles du monde entier en imprimant un morceau de papier vert. (...) Si nous reconnaissons [maintenant] qu'il existe un cycle de l'indice du dollar américain [ponctué de crises machinées, dont la guerre] et que les Américains utilisent ce cycle pour faire la récolte dans les autres pays, alors nous pouvons conclure que le moment était venu pour eux d'en faire autant en Chine..."

CT : Vous discutez de la nécessité pour les États d'obtenir le consentement : la nécessité de pacifier, d'hypnotiser et d'aligner les populations pour poursuivre la mondialisation ; plus précisément, la nécessité de détourner l'attention de la violence structurelle des politiques économiques et de la violence réelle du militarisme. Pouvez-vous nous dire comment la question du réchauffement climatique est liée à cela ?

DR : Que la soi-disant "crise climatique" soit réelle, exagérée ou fabriquée de toutes pièces, il est clair, d'après les données de mon rapport, que l'éthique du réchauffement climatique a été conçue et manipulée à l'échelle mondiale et qu'elle bénéficie aux exploiteurs de l'économie du carbone et, plus indirectement, à l'État.

Par exemple, l'une des études que j'ai passées en revue montre qu'une multiplication des reportages sur le réchauffement climatique dans les médias grand public s'est soudainement produite au milieu des années 2000, dans tous les grands médias, au moment même où les financiers et leurs acolytes, comme Al Gore, ont décidé de créer et de gérer une économie mondiale du carbone. Cette campagne médiatique s'est poursuivie depuis lors et l'éthique du réchauffement climatique a été institutionnalisée.

Les programmes de piégeage du carbone ont dévasté les communautés locales sur tous les continents occupés. En fait, les programmes de réduction des émissions de carbone - des parcs éoliens à la récolte de biocarburants, en passant par la production industrielle de batteries, les installations de panneaux solaires, l'extraction de l'uranium, la construction de méga barrages hydroélectriques, etc. on accéléré les destructions d'habitats.

Pendant ce temps, la guerre économique et militaire fait rage, le glyphosate est déversé dans l'écosphère à un rythme sans précédent (déversé sur des cultures mercantiles résistant aux phytocides GM), des génocides actifs sont en cours (Yémen), les États-Unis se désistent de façon unilatérale et imposent une course aux armes aux machines nucléaires et aux armes nucléaires de prochaine génération ; des prêts extortionnels sont accordés par les Etats-Unis qui ont transformé l'usage de leurs terres au plan national, et des enfants scolarisés développent des crises psychotiques afin de faire "bouger les gouvernements" pour qu'ils "agissent" contre le climat.

Au début des années 1990, une conférence mondiale sur l'environnementalisme climatique fut une réponse expresse à la dissolution de l'Union soviétique. Cela faisait partie d'un projet de propagande globale visant à masquer la nouvelle vague de mondialisation accélérée et prédatrice qui se déchaînait alors que l'URSS était définitivement sortie du droit chemin.

CT : Que pensez-vous de Greta Thunberg et du mouvement qui l'entoure ?

DR : C'est triste et pathétique. Ce mouvement témoigne du succès du projet mondial de propagande que je décris dans mon rapport. Le mouvement est aussi un indicateur du degré d'enracinement du totalitarisme dans les sociétés occidentales, où les individus, les associations et les institutions perdent leur capacité de pensée indépendante pour détourner la société des des desseins d'une élite d'occupation. Les individus (et leurs parents) deviennent la police de la moralité au service de cet "environnementalisme".

CT : Vous parlez aussi de l'émergence de l'égalité des sexes (féminisme de la troisième vague) et de l'antiracisme comme doctrines d'État. Pouvez-vous dire quelque chose à ce sujet ?

DR : Dans mon rapport, j'utilise des documents institutionnels historiques et des données sociétales pour démontrer qu'une triade de "religions d'État" a été engendrée à l'échelle mondiale et qu'elle est apparue au moment opportun après la dissolution de l'Union soviétique. Cette triade se compose d'alarmisme climatique, d'une vision tunnel exagérée de l'équité entre les sexes et d'une campagne antiraciste machinée axée sur les pensées, le langage et les attitudes.

Ces idéologies étatiques ont été conçues et propulsées via les efforts de l'ONU et les protocoles signés qui en ont résulté. Le milieu universitaire de l'Ouest a adopté et institutionnalisé le programme avec enthousiasme. Les médias grand public ont fait la promotion religieuse de l'ethos nouvellement créé. Les partis politiques ont largement appliqué des quotas accrus de représentants élus par sexe et par race.

Ces processus et ces idées ont servi à apaiser, à assouplir, rassembler et à occuper l'esprit occidental, en particulier chez les classes moyennes supérieures, professionnelles et de gestion et les élites des territoires économiquement occupés, mais n'ont rien fait pour atténuer les formes de racisme et de misogynie les plus violentes et répandues dans le monde en raison de la mondialisation prédatrice et du militarisme.

Ironiquement, les atteintes globales à la dignité humaine, à la santé humaine et à l'environnement ont été proportionnelles aux appels systématiques et parfois criards à l'équité entre les sexes, à la lutte contre le racisme et à l'"action" climatique. Tout l'édifice de ces "religions d'Etat" ne laisse aucune place aux conflits de classes nécessaires et sape expressément toute remise en cause des mécanismes et des conséquences de la mondialisation.

CT : Pouvez-vous nous parler des Gilets Jaunes, de Brexit et du phénomène électoral Trump ?

DR : Combiner une mondialisation agressive, une prédation financière constante, l'éviscération des classes ouvrières et moyennes occidentales et un discours désinvolte sur le changement climatique, l'antiracisme et l'équité entre les sexes fait quelque chose ne peut qu'arriver. Le géographe français Christophe Guilluy a prédit ces réactions de façon assez détaillée, ce qui n'est pas difficile à comprendre. Ce n'est pas un hasard si les classes populaires et moyennes qui se révoltent critiquent les récits de la crise climatique, de l'antiracisme et de l'équité entre les sexes, d'autant que les médias grand public les présentent comme racistes, misogynes et ignorants des sciences.

Il semble que toute classe qui s'oppose à sa propre destruction soit accusée d'être peuplée de gens racistes et ignorants qui ne voient pas que le salut réside dans un monde géré par le carbone et globalisé. Il devient donc impératif de fermer tous les lieux où un tel "lot d'ignorants" pourrait communiquer ses vues, tenter de s'organiser et ainsi menacer l'ordre social dominant.

Auteur: Todhunter Colin

Info: Counterpunch.org. Trad Mg

[ géopolitique ] [ ingénierie sociale ]

 

Commentaires: 0

Ajouté à la BD par miguel

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel