Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 20
Temps de recherche: 0.0362s

physique élémentaire

Classer les nombres, les formes, les observations, les niveaux d'énergie, ... pour en comprendre le sens, en résoudre les énigmes, voilà le travail que la quantification du monde nous impose. Tant que tous étaient possibles comme dans "l'ancienne Physique" rien n'importait vraiment. Maintenant que l'on sait que la nature ne varie pas continûment, l'énigme des nombres devient la Question.

Depuis toujours cette idée de mettre en parallèle, d'ordonner, de rechercher des régularités, des similitudes, des périodicités a été un des moteurs de la connaissance et de la compréhension. Un des plus étonnants exemples est sans nul doute l'idée de Mendéleiev d'identifier des récurrences dans les comportements des éléments chimiques. En regroupant ainsi la (petite) centaine d'éléments connus en quelques familles aux propriétés chimiques voisines, il donna un sens à une multitude d'observations. Mais son classement empirique prit tout son sens avec la mécanique quantique. Les propriétés chimiques découlent directement de la forme des ondes et du nombre d'électrons qui les occupent. La périodicité observée par Mendéleiev révèle en fait les caractéristiques et en particulier les symétries et les formes des ondes des électrons dans l'atome. 

Auteur: Chomaz Philippe

Info: Symétrie et brisure de symétrie en mécanique quantique, p. 20. Sur  https://www.iaea.org

[ échantillonnage ] [ étalonnage ] [ sciences ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès technologique

Le grand bluff de la dématérialisation numérique
La transition numérique, externalisée loin des yeux de l’utilisateur, échappe facilement au raisonnement. La consommation énergétique du numérique dans le monde augmente d’environ 9% par an.
En dépit de la plus grande efficacité des technologies déployées, la croissance rapide du secteur conduit à un bilan "alarmant". Les gains énergétiques obtenus grâce à la recherche ne réduisent pas l’impact global du numérique en hausse constante en raison d’un effet rebond. "Le risque de voir se réaliser un scénario dans lequel des investissements de plus en plus massifs dans le Numérique aboutiraient à une augmentation nette de l’empreinte environnementale des secteurs numérisés est réel".
A ceci s'ajoutent l'augmentation de la pression sur un système de production électrique déjà soumis à l’impératif d’être décarbonisé, ainsi que la construction de masse des objets électroniques.
Comment éviter cette "explosion" ? Les propositions d’action du rapport incluent une meilleure quantification des impacts environnementaux des investissements dans le développement du numérique, une priorisation des projets ayant pour finalité le développement économique local, social (santé, éducation) ou culturel, une meilleure intégration des contraintes de sobriété énergétique et une localisation de l’écosystème numérique. Etc.
Les auteurs du rapport concèdent néanmoins eux-mêmes que leurs préconisations ne suffisent pas, puisqu’elles permettraient au mieux à "ramener l’augmentation de consommation d’énergie à 1,5 %", une trajectoire non compatible avec les objectifs de l’Accord de Paris".

Auteur: Internet

Info: 30 décembre 2018, résumé du rapport : Pour une sobriété numérique dirigé par Hugues Ferreboeuf et commandé par le think tank The Shift Project

[ écologie ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intégration

(Ur, En allemand préfixe permettant l'accentuation ou l'exagération d'un mot)

En théorie des ensembles, un ur-element (ou urelement) est quelque chose qui n'est pas un ensemble mais qui peut être élément d'un ensemble.

Ils partagent ainsi avec le seul ensemble vide le fait de ne posséder aucun élément, mais pour des raisons tout à fait différentes : rien ne peut appartenir à un ur-element parce que cela n'a pas de sens, alors que rien n'appartient à l'ensemble vide par définition.

Les ur-elements sont aussi appelés atomesindividuséléments primitifs ....

La théorie des ensembles moderne a pu montrer que, pour développer l'ensemble des mathématiques, on pouvait complètement se passer d'atomes. Tous les ensembles utiles peuvent être construits à partir de l'abstraction mathématique qu'est l'ensemble vide. 

Néanmoins les théories des ensembles avec ur-elements gardent leur intérêt, pour des théories des ensembles faibles, ou tout simplement parce qu'elles peuvent apparaître plus naturelles au prime abord. De façon imagée, si on veut prouver que tout homme résidant à Paris réside en France, on va utiliser les propriétés de la relation d'inclusion telles qu'elles sont définies en théorie des ensembles. Pourtant, on ne va pas affirmer pour le prouver que tel homme (ur-element) qui vit à Paris donc en France est construit à partir de l'ensemble vide.

Adjoindre à l'ontologie ensembliste des objets qui ne sont pas des ensembles permet d'étendre son application à d'autres domaines. Mais il faut bien sûr formellement s'assurer que les théorèmes acquis sur les seuls ensembles peuvent s'exporter hors de ce domaine. D'où l'intérêt d'une théorie des ensembles avec ur-elements qui peut le garantir formellement.

Syntaxiquement, leur introduction consiste à enrichir le langage ensembliste (ne comprenant que les symboles de relation binaire d'appartenance et d'égalité) de constantes d'individus.

Les quantifications présentes dans les axiomes de la théorie des ensembles sont alors généralement relativisées aux seuls ensembles et ne s'appliquent pas aux ur-elements.

Dans des axiomatiques comme la théorie des ensembles typée, les objets de type 0, ou atomes, peuvent être considérés comme des ur-elements.

Résultats

L'adjonction d'ur-elements au système des New Foundations de  Quine (NF), a des conséquences surprenantes. En particulier, alors que l'on ne sait pas si la théorie NF est cohérente (relativement à ZFC et ses extensions), la théorie NF avec Ur-elements, notée NFU, se révèle cohérente relativement à l'arithmétique de Peano : une théorie bien plus faible que ZFC. De plus NFU plus l'axiome du choix est cohérente relativement à NFU, alors que NF démontre la négation de l'axiome du choix !

Auteur: Internet

Info: https://fr.wikipedia.org/wiki/Ur-element

[ composant singulier ] [ corps étranger ]

 

Commentaires: 0

Ajouté à la BD par miguel

métalinguistique

Parlant de "l'erreur de Frege" Hintikka explique : La véritable source du pouvoir expressif de la logique du premier ordre ne réside pas dans la notion de quantificateur en soi, mais dans l'idée de quantificateur dépendant.

Car la logique du premier ordre n'a que deux quantificateurs :

-  universel, qui signifie "tous" ou "pour tout".

-  existentiel, qui signifie "il existe" ou "il existe au moins un".

Un quantificateur dépendant est lui lié à une autre variable. Par exemple, la proposition "Pour tout nombre x, il existe un nombre y tel que x < y" utilise un quantificateur dépendant. La variable x est liée à la variable y par la relation "x < y".

Ce quantificateur dépendant permet donc d'exprimer des propositions plus complexes que celles qui peuvent être exprimées avec les 2 quantificateurs du 1er ordre.

Par exemple, la proposition "Pour tout nombre x, il existe un nombre y tel que x < y"  (Pour tout nombre, il existe un autre nombre qui est plus grand que lui) poura être utilisée pour exprimer le concept de suite ordonnée.

Les quantificateurs dépendants sont donc essentiels à la puissance expressive d'une logique du premier ordre, beaucoup plus limitée dans ses capacités.

- Autre exemple : "Pour toute fonction f, il existe une constante c telle que f(c) = 0".

Qui veut dire que le 0 symbolise une "variable à possibilité infinie" qui offre un point d'entrée sur réel (la dimension de départ). Donc la quantification de ce 0 permettra de calculer une dimension. En physique pour calculer la longueur d'onde d'une onde électromagnétique. En chimie pour calculer la distance entre deux atomes. En biologie pour calculer la taille d'une cellule. Etc. 

Ainsi, en linguistique, ce 0, "variable à possibilité infinie" ou " symbole universel" peut être remplacé par un simple mot (pensons ici à un terme-univers à la Borges en littérature)...   Mot qui de fait, et grâce à l'imaginaire humain, pourra ouvrir beaucoup plus loin.

Pour qui voudra s'amuser avec ceci sur FLP pourra s'y essayer avec des termes comme "amour", ou "mort"...  ça marche avec à peu près tous les termes.

Autre exemple : La formule "Pour tout ensemble A, il existe un ensemble B tel que A ⊆ B".  Peut être vue comme un outil de contextualisation, voire de méta-contextualisation. Par exemple : un mot à besoin d'un texte pour prendre son sens. Ou, plus globalement :  l'ensemble A, le langage, a besoin d'un ensemble plus B grand : la réalité.

Il est possible que FLP, en tentant de briser la séquencialité (linéarité) du langage, et en proposant l'adoption d'une logique tétravalente, permette d'ouvrir de nouvelles pistes,  susceptibles de briser quelques barrières, de dépasser certaines limitations... et d'aller vers une intrication peut-être nécessaire pour celà. 

Auteur: Mg

Info: Avec l'aide de certains textes et de Bard

[ poésie ] [ philosophie ] [ prospective ] [ métalangage ] [ règle de trois ] [ proportionnalité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

physique photonique

Quantifier la quantification : un projet mathématique "d'une immense beauté".

Les chercheurs mettent au point une méthode pour déterminer le degré de quantification de l'état d'un système.

Tout grand objet : balle de base-ball, véhicule, planètes, etc, se comporte conformément aux lois classiques de la mécanique formulées par Sir Isaac Newton. Les petits, comme les atomes et les particules subatomiques, sont régis par la mécanique quantique, où un objet peut se comporter à la fois comme une onde et comme une particule.

La frontière entre le domaine classique et le domaine quantique a toujours été d'un grand intérêt. Les recherches rapportées dans AVS Quantum Science par AIP Publishing, examinent la question quant à savoir ce qui fait qu'une chose est "plus quantique" qu'une autre. Existe-t-il un moyen de caractériser la "quanticité" ? Les auteurs indiquent qu'ils ont trouvé une approche pour le faire.

Le degré de quanticité est important pour des applications telles que l'informatique et la détection quantiques, qui offrent des avantages que l'on ne trouve pas dans leurs équivalents classiques. Pour comprendre ces avantages, il faut à son tour comprendre le degré de quanticité des systèmes physiques concernés.

Plutôt que proposer une échelle dont les valeurs seraient associées au degré de quanticité, les auteurs de cette étude examinent les extrêmes, à savoir quels sont les états les plus, ou les moins... quantiques. Selon l'auteur Luis Sanchez-Soto, l'idée de cette étude est venue d'une question posée lors d'une réunion scientifique.

"Je donnais un séminaire sur ce sujet lorsque quelqu'un m'a posé la question suivante : 'Vous, les gars de l'optique quantique, vous parlez toujours des états les plus classiques, mais qu'en est-il des états les plus quantiques?'", 

On a compris depuis longtemps que les états dits cohérents peuvent être décrits comme quasi-classiques. Ils se produisent, par exemple, dans un laser, où la lumière provenant de plusieurs sources de photons est en phase, par conséquence dans un état très peu quantique.

Un tel système quantique peut être représenté mathématiquement par des points, plus ou moins nombreux, que l'on répartit sur une sphère, souvent en les intriquant sur spectre de couleurs pour avoir une meilleure représentation de ce qu'on appelle en général "constellation de Majorana". Pour les états cohérents, la constellation est simplement un point unique. Par conséquent ceux qui sont les plus quantiques présentent des configurations plus riches/nombreuses qui recouvrent plus richement la sphère. Les sphères pouvant être modélisées de plusieurs manières : par un simple cercle où sont disposés les "points quantiques", via les répartitions de couleurs, voire en usant de ces point de polarités pour transformer chaque sphère en un polyèdre plus ou moins complexe. 

Les chercheurs, après avoir examiné plusieurs autres approches de scientifiques ayant exploré les quanta, et en prenant en compte la constellation de Majorana pour chacune d'entre elles, s'étaient sont alors demandés comment répartir au mieux, ou le plus uniformément, l'ensemble des points sur une sphère dans le cadre de cette approche. 

C'est ainsi que Sanchez-Soto et ses collègues, en abordant la quanticité sous cet aspect, ont réalisé qu'il s'agissait d'un projet mathématique non seulement utile, mais "d'une immense beauté".

Auteur: Internet

Info: https://www.newswise.com. 12 nov 2020

[ électrons ]

 

Commentaires: 0

Ajouté à la BD par miguel

végétal

Quand le désordre nous dit comment le vivant se construit
Une majorité de plantes distribuent leurs feuilles et fleurs en spirale le long des tiges mais ces spirales sont souvent imparfaites. Un nouveau modèle stochastique de la genèse de ces spirales chez les plantes a été élaboré par les équipes de Teva Vernoux au Laboratoire de reproduction et développement des plantes et Christophe Godin de l'équipe-projet Inria Virtual Plants. Il montre que les désordres dans les spirales sont comme des filigranes qui donnent des informations sur les principes de construction des plantes. Cette étude est publiée dans la revue eLife.
Les organismes vivants produisent des structures ordonnées qui ont depuis toujours attiré la curiosité des chercheurs comme celle du grand public pour leur beauté et leur variété. Mais ces structures complexes ne sont pas parfaites et présentent des défauts à des degrés plus ou moins importants. C'est le cas sur la tige des plantes. Ces dernières produisent tout au long de leur vie de nouveaux organes (branches, feuilles, fleurs,...) le long des tiges, le plus souvent suivant une organisation en spirale. Les nouveaux organes sont produits dans un tissu spécialisé à l'extrémité de la tige et se positionnent successivement les uns par rapport aux autres en inhibant localement la production de nouveaux organes dans leur voisinage. C'est comme si dans une foule tous les individus produisaient un champ de force répulsif qui les empêchait de s'approcher trop les uns les autres. Dans ce système, il faut que la croissance de la tige éloigne suffisamment les derniers organes produits pour qu'un nouvel organe puisse à nouveau être créé. La croissance induit ainsi des initiations rythmiques d'organes. De façon étonnante, il a été observé récemment qu'il n'est pas rare que ce mécanisme régulier soit perturbé et que plusieurs organes soient initiés en même temps ou même inversés par rapport à l'ordre qu'ils devraient avoir sur une spirale idéale. Comment est-il possible de continuer à construire des spirales quand l'ordre des organes est à ce point perturbé ?
Une équipe composée de biologistes et mathématiciens menée par Teva Vernoux du laboratoire Reproduction et Développement des Plantes à l'ENS Lyon et Christophe Godin de l'équipe-projet Virtual Plants de l'INRIA à Montpellier, a crée un nouveau modèle de la genèse des spirales sur les tiges des plantes en introduisant une part d'aléatoire dans la manière dont les cellules perçoivent l'inhibition produite par les branches/feuilles/fleurs existantes. Ce modèle dans lequel la production des nouveaux organes est en partie déterminée par les lois du hasard permet de recréer avec précision à la fois la régularité des spirales mais également les perturbations de la temporalité des initiations perturbant la spirale. Le modèle suggère qu'une part d'aléatoire gouverne la construction des plantes mais surtout que la quantification des désordres des spirales sur la tige informe sur les paramètres du modèle et donc sur les mécanismes qui contrôlent le mise en place des spirales. Ces désordres sont ainsi comme les filigranes sur les billets de banque: quand on sait comment les mettre en évidence (en les plaçant devant une source lumineuse dans ce cas), il devient possible de lire une information cachée qu'ils portent. Comprendre le désordre nous permet donc de mieux comprendre comment se construisent les systèmes vivants.

Auteur: Internet

Info: A stochastic multicellular model identifies biological watermarks from disorders in self-organized patterns of phyllotaxis. Refahi Y, Brunoud G, Farcot E, Jean-Marie A, Pulkkinen M, Vernoux T, Godin C.Elife. 2016 Jul 6

[ méta-moteur ] [ imperfection ]

 

Commentaires: 0

palier évolutif

Découverte d’une nouvelle forme de vie née de la fusion d’une bactérie avec une algue

Ayant eu lieu il y a 100 millions d’années, il s’agit seulement du troisième cas connu de ce phénomène.

(Image - La forme de vie née de la fusion entre l'algue Braarudosphaera bigelowii et la cyanobactérie UCYN-A."

Des chercheurs ont découvert une forme de vie de nature extrêmement rare née de la fusion d’une algue avec une bactérie fixatrice d’azote il y a 100 millions d’années. Appelé endosymbiose primaire, le phénomène se produit lorsqu’un organisme en engloutit un autre pour faire de celui-ci un organite, à l’instar des mitochondries et des chloroplastes. Il s’agit du troisième cas recensé d’endosymbiose. Il pourrait ouvrir la voie à une production plus durable d’azote pour l’agriculture.

Au cours des 4 milliards d’années de vie sur Terre, seulement deux cas d’endosymbiose primaire étaient connus jusqu’ici. La première s’est produite il y a 2,2 milliards d’années, lorsqu’une archée a absorbé une bactérie pour l’intégrer dans son arsenal métabolique en la convertissant en mitochondrie. Cette étape constitue une phase majeure dans l’évolution de tous les organismes sur Terre, leur permettant notamment d’évoluer vers des formes plus complexes.

(Photo : Des mitochondries dans une cellule.)

La seconde endosymbiose primaire connue s’est produite il y a 1,6 milliard d’années, lorsque des organismes unicellulaires ont absorbé des cyanobactéries capables de convertir la lumière en énergie (photosynthèse). Ces bactéries sont devenues les chloroplastes que les plantes chlorophylliennes utilisent encore à ce jour pour convertir la lumière du Soleil en énergie.

D’un autre côté, on pensait que seules les bactéries pouvaient extraire l’azote atmosphérique et le convertir en une forme utilisable (en ammoniac) pour le métabolisme cellulaire. Les plantes pouvant fixer l’azote (comme les légumineuses) effectuent ce processus en hébergeant ces bactéries au niveau de leurs nodules racinaires.

La découverte de l’équipe du Berkeley Lab bouleverse cette notion avec le premier organite capable de fixer de l’azote et intégré dans une cellule eucaryote (une algue marine). " Il est très rare que des organites résultent de ce genre de choses ( endosymbiose primaire ) ", explique Tyler Coale de l’Université de Californie à Santa Cruz, dans un communiqué du Berkeley Lab. " La première fois que cela s’est produit à notre connaissance, cela a donné naissance à toute vie complexe. Tout ce qui est plus compliqué qu’une cellule bactérienne doit son existence à cet événement ", a-t-il déclaré, en faisant référence aux origines des mitochondries. Le nouvel organite, décrit dans deux études publiées dans les revues Cell Press et Science, est baptisé " nitroplaste ".

Un organite à part entière

La découverte de l’organite a nécessité plusieurs décennies de travail. En 1998, les chercheurs ont identifié une courte séquence d’ADN qui semblait provenir d’une cyanobactérie fixatrice d’azote (UCYN-A) abondante dans le Pacifique. D’un autre côté, une autre équipe de l’Université de Kochi (au Japon) a identifié une algue marine (Braarudosphaera bigelowii) qui semblait être l’hôte symbiotique de la bactérie. En effet, l’ADN de cette dernière a été découvert en importante quantité dans les cellules de l’algue.

Alors que les chercheurs considéraient l’UCYN-A comme un simple endosymbiote de l’algue, les deux nouvelles études suggèrent qu’elle a co-évolué avec son hôte de sorte à devenir un organite à part entière. En effet, après plus de 300 expéditions, l’équipe japonaise est parvenue à isoler et cultiver l’algue en laboratoire. Cela a permis de montrer que le rapport de taille entre les UCYN-A et leurs algues hôtes est similaire d’une espèce à l’autre.

D’autre part, les chercheurs ont utilisé un modèle informatique pour analyser la croissance de la cellule hôte et de la bactérie par le biais des échanges de nutriments. Ils ont constaté que leurs métabolismes sont parfaitement synchronisés, ce qui leur permettrait de coordonner leur croissance. " C’est exactement ce qui se passe avec les organites ", explique Jonathan Zehr, de l’Université de Californie à Santa Cruz et coauteur des deux études. " Si vous regardez les mitochondries et le chloroplaste, c’est la même chose : ils évoluent avec la cellule ", ajoute-t-il.

Les experts ont également montré que la bactérie UCYN-A repose sur sa cellule hôte pour sa réplication protéique et sa multiplication. Pour ce faire, ils ont utilisé une technique d’imagerie à rayons X et une tomographie permettant d’observer les processus cellulaires en temps réel. " Nous avons montré grâce à l’imagerie à rayons X que le processus de réplication et de division de l’hôte algal et de l’endosymbiote est synchronisé ", indique Carolyn Larabell, du Berkeley Lab.

(Illustrations montrant les algues à différents stades de division cellulaire. UCYN-A, l’entité fixatrice d’azote désormais considérée comme un organite, est visible en cyan ; le noyau des algues est représenté en bleu, les mitochondries en vert et les chloroplastes en violet.)

Une quantification des protéines des deux organismes a aussi été réalisée. Il a été constaté qu’environ la moitié des protéines de l’UCYN-A est synthétisée par sa cellule hôte, qui les marque avec une séquence protéinique spécifique. Ce marquage permet ensuite à la cellule de les envoyer au nitroplaste, qui les importe et les utilise pour son propre métabolisme. " C’est l’une des caractéristiques de quelque chose qui passe d’un endosymbionte à un organite ", explique Zehr. " Ils commencent à éjecter des morceaux d’ADN, et leurs génomes deviennent de plus en plus petits, et ils commencent à dépendre de la cellule mère pour que ces produits génétiques soient transportés dans la cellule ".

Un potentiel pour une production d’azote plus durable

Les chercheurs estiment que les nitroplastes ont évolué il y a environ 100 millions d’années. Comme l’UCYN-A est présente dans presque tous les océans du monde, elle est probablement impliquée dans le cycle de l’azote atmosphérique. Cette découverte pourrait avoir d’importantes implications pour l’agriculture, le procédé industriel utilisé actuellement pour convertir l’azote atmosphérique en ammoniac (procédé Haber-Bosch) étant très énergivore. Ce dernier permet notamment d’assurer 50 % de la production alimentaire mondiale et est responsable d’environ 1,4 % des émissions carbone.

Toutefois, de nombreuses questions restent sans réponse concernant le nitroplaste et son hôte algal. En prochaine étape, les chercheurs prévoient ainsi de déterminer s’il est présent dans d’autres cellules ainsi que les effets que cela pourrait avoir. Cela pourrait permettre d’intégrer directement la fixation de l’azote dans les plantes de sorte à améliorer les récoltes. 



 

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano·19 avril 2024

[ symbiogénétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

parapsychologie

Le pays des aveugles de Koestler (II) (première partie ici)

La section précédente a peut-être donné au lecteur un sentiment de déjà-vu, parce que tout à l'heure j'ai mentionné un autre type de "théorie du filtre" liée à l'évolution. Je me réfère à la théorie néo-darwinienne selon laquelle la substance héréditaire dans les cellules germinales est protégée par une barrière quasi inviolable contre les influences en provenance de l'extérieur. Le "presque" se réfère à l'exception des rayons cosmiques, de la chaleur et des produits chimiques nocifs, qui pourraient pénétrer la barrière et causer des mutations dans les gènes. La plupart d'entre elles sont nuisibles, mais de temps en temps il y a des coups de chance, et cela, grâce à la sélection naturelle, permet à la roue de l'évolution de continuer sa marche. Hors cela, toute possibilité qu'une caractéristique acquise devienne héréditaire est empêchée par cette barrière. Le lamarckisme qui postulait que des améliorations bénéfiques pour les corps ou les compétences acquises par les parents pourraient être transmises à la descendance, doit être écarté comme superstition scientifique. Telle est la doctrine néo-darwinienne. Et pourtant, certains phénomènes évolutifs, cités à maintes reprises dans la littérature, semblent indiquer obstinément un facteur d'évolution lamarckienne.

Un exemple simple en est la peau sur la plante de nos pieds, qui est beaucoup plus épaisse que partout ailleurs. Si l'épaississement s'était produit pendant que le bébé a appris à marcher, il n'y aurait pas de problème. Mais l'épaississement est hérité, le bébé est né avec. Également curieuses sont les callosités innées sur le genou du chameau, et les épaississements bulbeux sur le cul de l'autruche, un à l'avant et un à l'arrière. Ils sont aussi, comme la peau de nos semelles, déjà présents dans l'embryon et sont incontestablement des caractéristiques héritées. Pourtant, en conformité avec le dogme dominant, on nous demande de croire que l'avènement de ces callosités à l'endroit exact où l'animal en a besoin est dû au hasard pur - comme le scarabée apparaissant à la fenêtre de Jung. On pourrait presque remplacer l'ESP par l'IAC (hérédité des caractères acquis) et voir émerger le même schéma d'arguments, et les mêmes passions quasi théologiques qui les accompagnent. Les lamarckiens se sont retrouvés dans une situation similaire à celle des parapsychologues : ils ont été incapables de produire une expérience reproductible. Les cas de IAC apparents dans le règne animal étaient rares, les phénomènes étaient capricieux, chaque cas apparemment net permettait des interprétations différentes et en dernier recours, à des accusations de fraude. En outre, bien que les lamarckiens étaient convaincus que IAC avait lieu, ils furent incapables d'en fournir une explication physiologique - comme les parapsychologues sont incapables de fournir une explication physique de l'ESP.

Ce curieux parallèle semble avoir échappé à l'attention des lamarckiens et des parapsychologues - Je n'ai pas vu mentionné dans la littérature. Peut-être qu'une hérésie c'est assez pour un seul homme. Paul Kammerer partageait les deux à la fois, et pourtant, lui aussi, semble n'avoir pas été au courant de la connexion entre eux. Portons l'analogie un peu plus loin. Dans "The Ghost in the Machine" et "The Case of the Midwife Toad", j'ai examiné les raisons d'un mécontentement croissant avec la théorie néo-darwinienne chez les biologistes contemporains, qui croient que la théorie reflète une partie de l'image, mais pas l'ensemble du tableau, et qui maintiennent que l'évolution des espèces est le résultat combiné d'un éventail de facteurs étiologiques connus, la plupart d'entre eux restant inconnus.

L'héritage de Darwin, et une forme modifiée de l'héritage de Lamarck, peuvent-être deux de ces facteurs à des extrémités opposées du spectre, avec un champ limité d'application à la fois. La IAC Lamarckienne serait un évènement relativement rare - pour la même raison que les phénomènes ESP sont rares: le fonctionnement des filtres de protection. Ceux-ci ne constitueraient pas la barrière absolue prévue par la théorie orthodoxe, mais un des mécanismes sélectifs, pour protéger le matériel héréditaire contre la "floraison et la confusion bourdonnante" des incursions biochimiques qui, autrement, feraient des ravages mettant en cause la continuité et la stabilité de l'espèce. Car si toutes les expériences des ancêtres laissaient des traces héréditaires à leur descendance, le résultat serait inévitablement un chaos de formes et un bordel des instincts. Mais cela ne signifie pas que nous devions exclure la possibilité que certaines modifications bien définies, adaptations intentionnelles - comme les callosités de l'autruche - qui ont été acquises génération après génération, finissent par passer à travers le filtre pour conduire à des changements dans la chimie des gènes en les rendant héréditaires. Il semble très peu probable que le filogenia ne doive posséder aucun souvenir.

La biochimie n'exclut pas la possibilité ci-dessus, et l'insistance presque fanatique de son rejet n'est qu'un exemple de plus de l'intolérance dogmatique de l'orthodoxie scientifique. (Mais : un membre éminent de l'établissement, le professeur Waddington, a effectivement proposé il y a quelques années un modèle provisoire pour l'IAC, ce qui indique que, au stade actuel de la biochimie un tel processus est envisageable.) Il nous faut faire ici une dernière excursion en physique - mais cette fois d'un genre très élémentaire.

Sur l'ombre du bureau en face de moi il y a l'ombre d'un cendrier. De manière ordinaire, il est tout à fait un objet sensible, solide, un tout en soi, sans "non-sens quantique" à son sujet. Mais quand je le soulève, je sens son poids, ce qui signifie qu'il est soumis à une influence assez mystérieuse que nous appelons le champ gravitationnel de la Terre. Et quand je le pousse, il résiste. Ceci est en partie dû au frottement contre le bureau, mais en partie aussi à l'inertie du cendrier massif. Maintenant, l'inertie est définie, selon la première loi du mouvement de Newton, comme la tendance d'un corps à préserver son état de repos ou de mouvement uniforme dans une direction donnée. Mais, si je devais suspendre ce cendrier par un fil au plafond, et en faire une réplique du pendule de Foucault aux Invalides à Paris, le plan de ses oscillations ne resterait pas figé dans la direction donnée, selon le principe que l'inertie nécessite, mais il tournerait lentement, complétant un tour en vingt-quatre heures.

Nous expliquons que c'est causé par la rotation de la terre, et que le pendule cendrier ne fait que préserver sa direction par rapport aux étoiles fixes, donc tout va bien. Toutefois, étant donné que tout mouvement est relatif, nous sommes en droit de considérer la terre comme au repos, avec des étoiles fixes tournant autour d'elle - comme l'imaginaient les anciens, et si c'est le cas, pourquoi les mouvements de mon cendrier doivent-ils être régis par les étoiles, et pas par la terre au-dessous ?

Le même argument s'applique à l'aplatissement des pôles de la terre, ainsi qu'à la force de Coriolis qui soi-disant dévie les missiles, les avions à réaction et les alizés de leur droite inertielle. Tous ces exemples semblent démontrer que la rotation de la terre est absolue et non relative. Ce paradoxe fut souligné par Bishop Berkeley, puis par le physicien allemand Ernst Mach (qui donna nom aux unités de vitesse supersonique). La réponse de Mach c'est que nous sommes en effet en droit de considérer la terre comme au repos, et d'expliquer les phénomènes que nous attribuons à sa rotation, comme causés en quelque sorte par les étoiles fixes et les galaxies - donc, par la masse de l'univers qui nous entoure.

Selon cette théorie, connue comme principe de Mach, c'est l'univers qui nous entoure qui détermine la direction du pendule de Foucault, et régit ainsi les forces d'inertie de la planète responsables de l'aplatissement des pôles. Einstein a repris le principe de Mach et a postulé que l'inertie des corps terrestres n'est qu'une autre manifestation de la gravité, non causé par les étoiles en tant que telles, mais plutôt de leur rotations. C'est la théorie qui prévaut aujourd'hui.

Donc comment la rotation des étoiles donne de l'inertie à mon cendrier reste une pure conjecture. L'inertie est le plus tangible, terre-à-terre, des phénomènes de notre vie quotidienne: vous l'éprouvez chaque fois que vous poussez un meuble. Et pourtant, il a maintenant été démontré que sa résistance aux déplacements est due au fait que nous sommes entouré par la masse en rotation de l'univers.

En 1927, Bertrand Russell, qui souscrivait néanmoins à la relativité einsteinienne, s'est senti poussé à protester ainsi : - On fait valoir que "rotation absolue" peut être remplacée par une "rotation par rapport aux étoiles fixes". Ce qui est formellement correct, mais dire que cette influence vient des étoiles de l'astronomie est scientifiquement incroyable. Whitehead écrit dans la même veine: Il est difficile de prendre au sérieux l'idée que ces phénomènes internes sur terre soient dus à l'influence d'étoiles dans le ciel. Je ne puis me résoudre à croire qu'une petite étoile scintillant dans sa tournée dirige le pendule de Foucault lors de l'exposition de Paris de 1851.

Ainsi, même mon cendrier est un holon, après tout. Ce n'est pas seulement un cendrier ombre sur un bureau ombre Eddington, mais d'une certaine façon, à laquelle ni Einstein ni Mach ne se hasardèrent à donner une explication causale, ses propriétés d'inertie sont reliées à la masse entière de l'univers qui l'entoure. On pourrait aussi bien l'appeler cendrier Mirandole, en se rappelant le passage cité plus tôt: premièrement, il y a l'unité dans les choses où chaque objet est en harmonie avec lui-même, se compose de lui-même, et est cohérent avec lui-même. Deuxièmement, il y a l'unité selon lequel une créature est unie avec les autres, et toutes les parties du monde constituent un tout. C'est le principe même du holon.

Nous avons entendu un choeur entier de lauréats du Nobel de physique nous informer que la matière était morte, de même pour la causalité et le déterminisme. Si c'est le cas, laissez-nous leur donner une sépulture décente, avec un requiem de musique électronique. Il est temps pour nous de tirer les leçons d'un XXe siècle de sciences post-mécanistes et de sortir du carcan que le XIXe siècle matérialiste a imposé à notre perspective philosophique. Paradoxalement, si cette perspective était restée aux côtés de la science moderne elle-même, au lieu de trainer avec un siècle de retard, nous aurions été libérés de cette camisole de force il y a bien longtemps. Il a été dit que la science sait de plus en plus sur de moins en moins. Mais cela s'applique uniquement au processus de spécialisation. On serait tout aussi fondés à dire que nous savons de moins en moins sur de plus en plus.

Cela vaut tout autant pour la procédure de l'unification de la matière et de l'énergie que pour les particules et les ondes, tout ceci dans le delta conceptuel d'une rivière qui se déplace majestueusement dans un océan d'abstractions. Plus la science acquiert des connaissances précises, plus les symboles qu'elle utilise deviennent insaisissables. La chasse au quark commence à ressembler à une quête mystique dans un nuage d'inconnaissance. La science se révèle être la réalisation la plus glorieuse de l'esprit humain - et sa défaite la plus alléchante. Nous sommes devenus bien plus malins depuis Pic de la Mirandole, mais pas beaucoup plus sages quand il s'agit de savoir ce que tout cela signifie. Une fois ceci reconnu, nous pourrions devenir plus réceptifs aux phénomènes qui nous entourent et que de manière unilatérale la science physique nous fait ignorer, pour sentir le courant qui souffle au travers des fentes de l'édifice de la causalité; et accorder plus d'attention aux évènements confluentiels, comprendre les phénomènes paranormaux dans notre concept de normalité, et se rendre compte que nous vivons dans le "royaume des aveugles".

Les conséquences d'un tel changement de conscience ne sont pas prévisibles, et on ne peut s'empêcher de sympathiser avec la déclaration du professeur H. H. Price comme quoi la "recherche psychique est l'une des branches les plus importantes d'enquête que l'esprit humain ait entrepris"; il semble important "de mettre en lumière toute nouvelle sur la nature de la personnalité humaine et sa position dans l'univers", et en même le temps "cela transformera les perspectives et fondations intellectuelles dont dépend toute notre civilisation actuelle".

Ce sont des mots forts d'un professeur d'Oxford en philosophie, mais je ne pense pas qu'il exagère. Ce qu'ils impliquent c'est un plaidoyer pour faire de la parapsychologie, et plus généralement de l'étude de ce que j'ai appelé les "évènements confluentiels" avec un substrat académique respectable et attrayant pour les étudiants, tant professionnels qu'en matières facultatives. Une fois qu'il y aura autant de chercheurs brillants engagés dans ce domaine comme cela existe maintenant pour l'étude de comportements de rats, une percée pourra être en vue. Dans la science-fiction, il est tenu pour acquis que la communication télépathique et la manipulation de la matière psychokinétique seront monnaie courante dans un avenir pas trop lointain, et la science-fiction s'est avéré être une prophétesse étonnamment fiable. Une autre de ses hypothèses courantes est que des êtres intelligents d'autres planètes de l'univers ont une maîtrise avancée de ces méthodes. Il est également possible, cependant, que dans ce domaine particulier, nous soyons une espèce sous-privilégiée - avec nos handicaps propres.

Le grand dessein de l'évolution vers des formes supérieures de l'unité dans la diversité n'exclut pas monstres et autres ratés biologiques, ni leurs évolutions pathologiques. Je ne pense pas que l'univers soit une institution charitable, mais nous devons vivre en lui et en tirer le meilleur parti. Les limites de notre matériel biologique nous condamnent peut-être au simple rôle de spectateurs devant la serrure de l'éternité. Mais au moins, retirons ce qui, devant ou dans la serrure, limite encore notre point de vue. [Note : Dans la vaste littérature sur la parapsychologie contemporaine, j'ai été particulièrement impressionné par les écrits de deux femmes - Rosalind Heywood, à qui ce livre est dédié, et Renee Haynes, auteur de The Hidden Springs et le roi philosophe, et rédactrice en cheffe du Journal de la Society for Psychical Research.

En écrivant cet essai sur un champ où même les anges craignent de marcher, j'ai avancé avec grande prudence, essayant surtout m'en tenir aux résultats expérimentaux de recherche en laboratoire, omettant toutes les soi-disant "preuves anecdotiques" - c'est-à-dire les manifestations spontanées de phénomènes parapsychologiques de la vie courante qui ne constituent pas des preuves au sens strict. En relisant ces pages avant impression, je sentais que ces limites self-imposées donnent lieu à une certaine partialité, et j'ai demandé à Renee Haynes de rétablir l'équilibre sous la forme d'un post-scriptum. Je lui suis donc reconnaissant d'avoir ajouté ainsi une saveur Yin Yang à mon austère travail.

(Post-scriptum par Renee Haynes)

M. Koestler nous a donné un exposé lucide de données modernes comme l'espace, le temps, la matière, la causalité, la neurophysiologie et la recherche psychique. Une remarquable synthèse en émerge. Son concept de "Janus-faced holons" pourrait bien se révéler comme un vrai stimulant pour notre génération comme le fut l'Elan Vital de Bergson pour les penseurs de la première partie du 20ème siècle. Il est à la fois gratifiant et grandiose être mandé pour écrire l'épilogue d'un tel travail, surtout afin qu'il suscite une discussion ultérieure. Si cet épilogue touche parfois à l'argumentaire, j'espère qu'on me le pardonnera.

J'ai été impressionné par la description de M. Koestler de la physique contemporaine. Avec ses termes infiniment abstraits, ses interactions mathématiques vérifiables, son univers visible, la danse de l'énergie, les choses prévisible et les folies imprévisibles, tantôt ici, tantôt là, maintenant nulle part et ensuite de retour, explosant tout le réseau propre à la pensée de Newton. C'est par ailleurs un exemple fascinant de synchronicité que deux physiciens et parapsychologues en viennent à utiliser le terme psi pour indiquer ce qui est encore inconnu; un curieux flash verbal qui pourrait servir à indiquer un terrain d'entente entre les deux disciplines. Pour moi, cependant, comme pour beaucoup d'autres, l'imagerie mathématique qui vient naturellement au calculateur est beaucoup plus difficile à comprendre, à rapporter à l'expérience de vie, que celle donnée par l'impact immédiat des sens.

Il est plus facile pour des gens comme nous de penser dans l'idiome d'une perception "ordinaire", ce processus monnaie courante, que dans le langage de formules algébriques, quelle que soit leur vérité et leur élégance. C'est par l'imagerie de la vue, l'ouïe, le toucher, l'odorat, la température, que la connaissance paranormale, comme la mémoire, apparait souvent dans l'esprit conscient (souvent, mais pas toujours. Ce peut être une impression soudaine que quelque chose s'est passé, ou pas plus qu'une impulsion inexplicable pour agir, courir hors d'une maison qui sera bientôt bombardé, ou entreprendre une tâche fastidieuse de voyage en cross-country pour voir un enfant à l'école, qui se révèle être tout à coup, dangereusement malade. (Cf. Cf. Arm Bridge, Moments of Knowing. London, 1970)

Pour cette raison, je tiens à souligner la valeur des phénomènes spontanés à la recherche psychique. Aussi déroutants, irremplaçables, uniques et personnels que de tels évènements puissent être, fait est qu'ils ne se produisent, que des hallucinations, certaines impressions de veille ou des rêves d'apparence réelle peuvent être mis en corrélation avec des évènements objectifs inconnus à la personne concernée, très éloignée ou il y a longtemps ou pas encore adoptée, a été maintes fois dit clairement, à la fois avant et après l'enquête systématique qui a débuté dans les années 1880. Même maintenant, bien sûr, de tels évènements sont souvent rejetés au mieux comme "anecdotiques", ou comme racontars de vieilles femmes, voire comme absurdités superstitieuses. De même, ce rapport tout à fait exact que les habitants de St. Kilda attrapèrent un rhume que quand un navire vint, fait rapporté par le Dr Johnson comme étant contraire à tout bon sens, ne fut accepté comme un état de fait que quand la théorie des germes de la maladie furent mis en place. Beaucoup de cas spontanés du paranormal - prise de conscience télépathique, "apparitions" perçues alors que la personne "vue" se trouvait en danger ou en train de mourir, apparition soudaine d'une douleur inexplicable au moment où est vécue de façon inattendue par une personne aimée au loin - ont été vérifié et selon des normes de preuve acceptables par une cour de justice. Tout cela donne du poids à un nombre toujours plus grand d'autres cas qui, bien que le narrateur ne le sache pas, tombent dans le même schéma, comme le Dr Louisa Rhine et d'autres l'ont fait remarquer. (Cf. Louisa Rhine, Hidden Channels of the Mind. London, 1962, and G. W. Lambert's Foreword to Andrew MacKenzie, Ghosts and Apparitions. London, 1971.)

La perception extra-sensorielle Spontanée se produit très certainement non seulement chez les humains, qui ont des mots pour décrire leurs expériences, mais chez les animaux, dont les sentiments ne peuvent être évalués que par leur apparence et leur comportement. Ce n'est pas toujours facile à interpréter parce que beaucoup d'entre eux ont des pouvoirs sensoriels qui nous manquent. Des rats adultes, par exemple, peuvent "sentir" les rayons X. Des bébés rongeurs d'une autre race ont été montré comme pouvant communiquer par ultrasons avec leurs mères, comme les dauphins de tous âges le font parfois les uns avec les autres. Ainsi comme il aurait été facile et faux - de produire une explication paranormale à cet épisode observé dans "la maison de l'attaché militaire américain d'une capitale étrangère non identifié". Le chien de la famille, hurlant et gémissant et "de toute évidence en souffrance, semblait être dans un vrai combat contre un ennemi dans le coin de la pièce". Les planchers furent enlevés et on trouva "un dispositif de transmission radio pour toutes les conversations dans la chambre". Lorsqu'il était allumé, il produisait un son trop aigu pour que l'oreille humaine l'entende, mais qui tourmentait le chien.

Mais il y a tout de même, bien authentifiés, des cas de comportement animaux qui semblent seulement donner sens qu'en termes de paranormal. Comme le chien ou le chat domestique qui, pris dans un panier fermé en voiture ou en train sur de longues distances, revient par le plus direct des cross-countries à la maison. Il y a ce récent rapport de la presse française d'un chien appartenant à un ouvrier qui l'avait quitté avec sa famille alors qu'il avait été envoyé dans une autre partie du pays pour une affectation temporaire. Le chien disparut de la maison et plus tard, mince et épuisé, il retrouvait son maître dans un endroit où il n'avait jamais été auparavant. Il y a aussi ces épisodes fréquents dans lesquels chiens ou les chats semblent être au courant de ce qui se passe à distance et deviennent surexcités dans leurs chenils au moment précis où leurs propriétaires commencent leur voyage de retour de vacances. Quelle que soit la distance. Il y a encore cet autre parallèle à faire entre les humains et les autres êtres vivants.

Comme JD Carthy l'a dit: "les animaux ne réagissent pas automatiquement à un signal, mais seulement si leur motivation est grande. Un animal repu ne réagit pas à un appel alimentaire. "M. Koestler a noté un angle différent (p.128 et suivantes) Que cela s'applique à l'homme ainsi que les animaux, dans la vie ordinaire que dans des conditions expérimentales. Ainsi, dans une rue animée d'un petit garçon d'un tour mécanique remarquerez marques de voitures, spécialiste de l'urbanisme de la circulation, une femme anxieuse de se croiser avec un enfant fatigué le mépris collectif impersonnel des pilotes pour ceux pied sur. En est de même de la perception extrasensorielle. En cela aussi, les gens deviennent très conscients de ce qui concerne eux-mêmes et leurs sentiments personnels. Pour évoquer une réponse instantanée forte de toute créature vivante un signal, sensorielle ou extra-sensorielle, doit être pertinente, pertinents aux besoins biologiques, à un stress émotionnel, à ce que Gerard Manley Hopkins appelé paysage intérieur.

C'est bien sûr pourquoi les expériences reproductibles dans la recherche psychique sont si difficiles à atteindre. L'intérêt qui pousse les gens à y participer est érodé par la répétition mécanique ennuyeuse, et l'effet de déclin qui se manifeste, tôt ou tard, en conformité avec les tempéraments, les humeurs et les relations personnelles des personnes concernées. Mis à part l'ennui cumulatif qu'elles engendrent par ailleurs, les expériences avec les cartes, les dés, des lumières et ainsi de suite ne tiennent pas compte de l'ambiance au sein de laquelle fonctionne l'esprit humain. Comme on l'a fait remarquer, "la cognition Paranormale est symbolique d'une manière associative; ainsi, M. Jones pourrait être impliqué dans un rêve ou la cognition paranormale parle d'un lion parce qu'il vit près du zoo, a un tempérament de lion ou une relation appelée Leo.

Pour des cartes à deviner avec un pack ordinaire le percipient pour marquer un coup direct dois dire littéralement "le dix de pique". La remarque "Dix hommes honnêtes" [qui appellent un chat un chat] serait considérée comme totalement hors de propos. Le premier groupe d'expériences au Laboratoire de rêve du Centre Maimonides Medical, * 1 résumée aux pages 37-8, allait dans le sens en vue de corriger cette difficulté, mais leurs résultats, bien que suggestifs, étaient difficiles à évaluer. C'est en partie parce que le pouvoir de visualiser varie donc considérablement d'une personne à une autre. Certaines personnes ont une mémoire photographique, un certain sélective, certains peuvent se rappeler le nom, mais pas les apparences des choses. En plus de tout ça tout le monde perçoit et exprime ses sentiments à travers un réseau d'associations, d'images et de symboles uniques à sa propre personne, d'autres découlent de son modèle de culture, la plupart des événements de sa vie individuelle. Une série d'expériences plus tard * en utilisant des cibles moins spécifiques - et pas seulement des images mais des sujets généraux tels que les religions d'Extrême-Orient, les productions artistiques des schizophrènes, la naissance d'un bébé, toutes illustrées pour l'agent par des vues et des bruits - semble avoir contourné certains des problèmes précédents. Il semble que cette méthode ait vraiment été couronnée de succès dans la communication télépathique sur l'humeur et la qualité d'une expérience. 

Cette question de la qualité par opposition à la mesure dans la recherche psychique comme dans de nombreux autres sujets me semble émerger avec de plus en plus d'urgence. On ne peut pas l'ignorer simplement parce qu'il est mal à l'aise et que c'est difficile à traiter. C'est pertinent pour la science, la philosophie, et tout le concept de synchronicité. Mais (parce que c'est tellement plus facile d'accumuler et de quantifier des données que de réfléchir sur leur signification) les notions de qualité et de sens qui comptent le plus pour les hommes ont tendance à être balayés. C'est une des raisons pourquoi ce livre est si précieux. Il se bat avec sens, intègre des faits.

Pourtant, je tiens à souligner le thème encore plus. La mesurable et le calculable peuvent servir la qualité, mais en diffèrent en nature. "Le son du cor le soir au fond des bois", "L'écume des mers périlleuses dans les terres désolées féeriques", "une profonde et troublante noirceur" - ces phrases peuvent être comprises et expérimentées instantanément en ce sens, mais elles ne sont pas susceptibles d'une analyse scientifique ou de quantification.

De même, vous ne pouvez pas avoir une tonne d'amour (en dépit de la façon dont les filles l'utilisent pour signer leurs lettres), soit un mètre de haine ou un gallon de pétrole de crainte, mais l'amour, la haine et la crainte sont tout aussi réels qu'une tonne de farine, une aune de toile ou d'un gallon d'essence, plus réel en effet, parce qu'ils ont une signification immédiate, ce ne sont pas de simples actions comme faire du pain cas ou remplir un oreiller. C'est une qualité, signifiant, qui clignote comme une étoile filante via la synchronicité, de même que, curieusement, à l'autre bout du spectre psychophysique, ça s'enflamme à travers des phénomènes de poltergeist "maisons hantées" *** maintenant considérés comme un effet de chaos profond ou la misère humaine s'exprime via un mode psychokinétique pas encore compris. Ainsi, grotesque, effrayant maintenant, les bruits, les pluies de pierres, les bouteilles brisées, les ampoules qui explosent, la modification violente inexplicable d'un équipement électrique symbolisent et exprimer plus directement que les mots ou la musique ou la peinture le conflit intérieur et l'agitation de la personne autour de laquelle tout ceci se produit.

Jung interprète ces phénoménal - comme les détonations chez Freud - comme des cas extrêmes de liens "transpsychiques" de causalité. Dans la vie quotidienne, ils se manifestent bien sûr de façon moins spectaculaire. Je décide d'écrire une phrase et le fonctionnement électrique de mon cerveau, le fonctionnement moteur de mes muscles exécutent cette décision via une chaîne traçable de causes physiques, mais c'était ma décision qui a établi le processus en cours. Il est en outre possible que de telles décisions puissent avoir des effets directs sur des processus biologiques qui ne sont pas en contact physique avec le corps du décideur, comme suggéré dans un article récent de John L. Randall sur "les phénomènes psi et théorie biologique" ****, qui fait référence à des travaux expérimentaux testant les effets psychokinétiques sur l'activité enzymatique, sur les paramécies, sur la croissance des plantes, et sur la cicatrisation des lésions chez la souris. Il fournit par ailleurs la jolie définition suivante générale: "Un phénomène psi est dite avoir eu lieu lorsque des informations sont transmises vers un système physique sans utilisation d'aucune forme connue d'énergie physique."

n peut ainsi distinguer entre différents niveaux: conscience de décision; phénomènes de type poltergeist engendré dans les couches subconscientes de la psyché, et enfin la synchronicité et les coïncidences significatives produites par l'esprit opérant à un autre niveau, inconcevable. Dans ce contexte, je pense qu'il me faut exprimer mon désaccord avec M. Koestler sur ce "sentiment océanique" et son " concept dominant" que "tout est un et un est tout" qui "fait écho à travers des écrits des mystiques chrétiens" (p.108).

Je suis sûre que cela arrive, et que, comme il l'écrit, il s'agit d'un passage vers le haut de la spirale de la conscience symbiotique de l'enfant, l'époque dorée du "temps du rêve" du primitif. Mais je ne pense pas que tous les mystiques, chrétiens ou non, partagent cette conception dominante, et le sentiment d'unité avec l'anima mundi que cela sous tende. Ils sont enflammés par une joie presque intolérable, mais ne sont pas engloutis en elle. Il ne peut y avoir de perception sans percepteur, et le contemplatif se perçoit lui-même suffisamment bien pour savoir s'il se réjouit. C'est comme si le coucher du soleil, ou la chaine de montagnes ou la nuit des étoiles qui les avaient mis en admiration se manifestaient comme étant en vie et les regardaient en retour. Il y a cette mémoire d'une remarque sobre de Francis Bacon, avocat, homme politique, essayiste et chercheur, qui évoqua pour la première fois des méthodes expérimentales pour tester en Angleterre la cognition paranormale. "J'aimerai plutôt croire toutes les fables du Talmud et du Coran que penser toute cette trame universelle sans esprit", un esprit qui est plus qu'un ordinateur mathématique et plus qu'un vaste système nerveux automatique, qui animerait tout ce qui est, aussi efficace et aussi inconscient de lui-même qu'une saine digestion.

Auteur: Koestler Arthur

Info: Internet et Roots of coïncidence. *M. Ullman et S. Krippner, études de rêves et de télépathie. Parapsychology Foundation, New York, 1970. **Stanley Krippner et autres, "bombardement sensoriel à longue distance, une étude de l'ESP dans les rêves." JASPR, vol. 65, n ° 4, Octobre 1971. *** Cf. ARG Owen, peut-on expliquer le Poltergeist? New York, 1964. ** "L'affaire Poltergeist Rosenheim", une communication lue par le Dr Hans Bender, le 11e Congrès annuel de l'Association de parapsychologie de Freiburg, Septembre 1968. Voir aussi JSPR., Vol. 46, n ° 750, Décembre 1970. **** SPR, vol. 46, n ° 749, Septembre 1971.

[ Holon ] [ chair-esprit ] [ intégratif ] [ épigénétique ] [ pré-mémétique ] [ homme-animal ] [ curiosité moteur ] [ dépaysement nécessaire ] [ spiritualité ]

 
Commentaires: 1

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel