Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 60
Temps de recherche: 0.0586s

FLP défini 3

Les Fils de La Pensée est un site-application dédié à l'encouragement de la lecture. Et, plus encore, de la lecture analytique.  

Mais pas que.

Initié à l'orée du 3e millénaire, alors que le numérique rétrécit une planète terre où la domination américano-occidentale post ww2 se termine, FLP veut se positionner "à partir du langage" c'est à dire en contemplant le monde pratiquement sur le mode peircéen du quasi-esprit.

Ainsi notre site-agrégateur-moteur de recherche collectif tente d'aller un peu plus loin que ce que les idiomes, unificateurs grégaires, font déjà. Ceci en proposant des pistes susceptibles d'amener le développement d'une lexicologie humaine (ici francophone) élargie, en mouvement, souple... et charpentée différemment comme explicité plus loin. 

FLP est aussi un espace de réflexion communautaire trans-partisan HOMME - machine, à l'heure où on veut nous faire croire que les chatbots générateurs de texte sont une intelligence artificielle (A.I. - I.A.) susceptible d'être comparée à celle des hommes - voire supérieure à cette dernière.  Alors que ce ne sont que de fantastiques outils, dangereux pour deux raisons au moins selon nous.  a) L'utilisation que tout pouvoir cherchera à en faire b) La dépendance, voire l'abrutissement, qu'elles pourront générer. 

FLP s'essaye donc à semer les graines d'une refondation des structures de la classification sémantique - sans bien sûr abandonner les savoirs partagés antérieurs. C'est à dire sans remettre en cause notre évolution ni ce qu'il y a "au dessous du langage",  ce dernier ne représentant que l'hyperstructure évolutive du monde-miroir-anthropique consensuel, miroir qui grandit au fur et à mesure de la progression et de l'affinement de notre science, c'est à dire de représentations qui recherchent une forme de vérité/exactitude sur base, entre autres, d'analogies et de hiérarchisations. Hiérarchisations souvent ridicules, probablement à l'instar du faible niveau de notre jeune espèce dans le grand et mystérieux concert cosmique.  

Structuration sémantique à venir potentiellement plus fiable et durable parce que simultanément partie d'une meilleure compréhension-intégration humaine avec la matrice Gaïa et le reste du vivant.

Mais restons bien humbles et revenons à FLP. Sachant que chacun d'entre nous est par essence limité par son imprégnation propre : milieu, époque, pays, langue, famille, genre, conformation physique, épisodes de vie, etc. et étant assumés et assurés certains prérequis quant à un minimum d'"existence physique" et d'éducation au verbe du participant, FLP essaye ce dépassement classificateur en s'appuyant sur deux idées perpendiculaires syntonisées.  

Primo : développement et l'approfondissement de l'idiosyncrasie de chacun, principalement par lecture réflexive et compréhension/analyse. 

Secundo :  meilleure intégration/compréhension de chaque subjectivité personnelle au sein des idées ; humaines dans un premier temps et, pourquoi pas, de la nature dans un sens plus large, avec cette idée parallèle d'une réintégration dans le concert du vivant après tous ces épisodes capitalo-anthropocentrés des singes trop malins que nous sommes. 

En bref :   approfondissement personnel      versus       élargissement collectif incorporateur.

Nous retrouvons ici le concept de tétravalence cher à nos yeux où se combinent l'horizontalité de l'intégration aux rouages du présent (principe féminin, empathique ?), avec une verticalité qui tend à vouloir incorporer le MOI dans la continuité de l'évolution (principe masculin, égoïste ?). 

Il y a ici une parenté évidente - que FLP voudrait développer - avec les quatre liaisons de covalence du carbone (et en lien avec les 4 bases dont sont formées les chaines de la double hélice de l'ADN ?). Nous croyons encore une fois que s'en inspirer aidera à  une meilleure représentation humaine au sein du mystérieux processus de la vie émergé de notre matrice Gaïa ; à l'heure où la science  à  déjà bien montré combien nos représentations du réel sont à revoir de fond en comble.

Nous préconisons-anticipons donc le développement d'une classification à partir d'une double base duale, extension des 2 axes conceptuels habituels : ying-yang, mâle-femelle, vie-mort, ouranien-chtonien, doute-certitude, noir blanc, etc... ici sémantiques, qui sont à appréhender comme deux vecteurs doubles, orthogonaux , qui copulent, modélisent, conjuguent et fusionnent sans cesse les formulations, c'est à dire comment nous nous représentons le réel sous forme de consensus humain verbaux.

Voilà donc défini un cadre et quatre vecteurs-directions, sans autre forme méthodologique que la présentation de ce "chassis conceptuel".  Chassis sous-jacent qui, avec l'aide de l'outil FLP, ses règles simples, et les possibilités de précision sémantique qu'Internet permet, aidera le participant-inserteur à aller  un cran plus loin, c'est à dire à réfléchir, en extrapolant et dédoublant parfois la double dualité foncière qui nous anime. 

On pourra partir par exemple de idée simple d'un "dictionnaire intriqué  à deux termes". Termes définis et mis ensemble dans une recherche, dont les combinaisons vont générer diverses variations, en partant de la plus courte. Recherche-exploration "à deux mots" dont on pourra comparer les résultats tels qu'exprimés par une femme, ou par un homme, ou autre... Les paramétrages de lieu, époque, pays, etc. venant ensuite pour qui voudra aller plus loin.

Ainsi, via les bidouillages de chacun et des échanges multiples, principalement portés sur une "exactitude sémantique consensuelle", le dictionnaire FLP devrait s'auto-construire - sans jamais vouloir conclure - par la pratique et le partage communautaire. 

C'est donc une entreprise collective qui combine deux orientations orthogonales : occupation du temps et développement personnel, ces derniers participants à la construction et au développement d'un dictionnaire linguistique communautaire, base de données  multidimensionnelle  enchevêtrée  - en espérant de continuels élagages-mises à jour-corrections des extraits insérés. Tout ceci idéalement en développant et mettant en pratique un ordonnancement sémantico-taxinomique qui s'inspire de ce que nous savons de l'esprit qui est dans la matière.

Mais ne nous emballons pas. Voyons d'abord FLP comme un instrument de recherche, transversal et sérendipitaire, sur fond de délassement.  

Nous croyons au plaisir du lire, de la pensée, de la rêverie... de la curiosité qui avance par crans....  Pas assouvie, mais nourrie... souvent parce que le langage - c'est à dire tous les hommes rassemblés -, formule et matérialise pour un temps nos sentiments-sensations-idées, avant que chaque représentation personnelle (pas de représentations sans verbe) ne diverge et se développe plus avant à sa manière dans un corpus idiomatique jamais fixé. 

Nous pensons que l'esprit a soif de nouveau et répondons à cette appétence en proposant le double plaisir conjugué de la lecture et de la quête. Bon dieu quel bonheur de découvrir des choses parce que formulées jusqu'à nous paraitre intelligibles !

Auteur: Mg

Info: mars, avril 2023

[ prospective ] [ alcènes et alcynes  ] [ gnose ]

 

Commentaires: 0

Ajouté à la BD par miguel

solipsisme astral

Question : Bonjour à tous, quelqu'un a-t'il déjà rencontré son moi supérieur en SHC?

Denis Cottard
Sous toute réserve, ma compréhension de ce phénomène consiste à penser notre réalité comme un iceberg dont la partie émergée est le conscient. La partie immergée la plus conséquente est plongée dans le champ énergétique, mais à différents niveaux de celui-ci, ce qui fait qu'on peut se rencontrer à différents niveaux suivant le type d'accordage vibratoire qu'on opère et cet autre moi sera doté d'une apparence reconnaissable, d'une conscience, d'un savoir plus ou moins large et d'une capacité à l'exprimer différente. A certains de ces niveaux, notre moi participe à des réalités, disons, plus collectives et donc, peut être en possession d'informations et de compréhension que notre moi conscient ignore totalement. Durant le temps de la mise en présence, un partage ou une fusion momentanée des états de vie peut s'opérer ; mais à moins d'y être préparé et de s'organiser des mots clefs pour s'en souvenir lorsqu'on ne sera plus dans cet état, la mémoire s'en va comme s'en va la mémoire du rêve. Plus l'expérience se fera dans un niveau vibratoire éloigné du niveau conscient plus difficile en sera la mémorisation. Malgré tout, si on note tout de suite ces mots clefs, une partie de l'expérience peut être remémorée. Suffisamment en tout cas pour que l'expérience puisse être reproduite de plus en plus volontairement. C'est déconcertant de constater que notre moi puisse se prolonger à des niveaux insoupçonnés et même y agir sans que le conscient soit de la partie. Le fait de se rencontrer peut être considéré comme une invitation à participer davantage consciemment à ces niveaux d'implication.
(...)
Cette difficulté de mémorisation est liée au fait qu'en s'éloignant du niveau vibratoire de notre veille commune, le support de la pensée s'apparente de moins en moins au langage parce que de plus en plus en accès "direct" au réel. On ne se situe plus dans le concept ou dans l'interprétation du perçu, on est face au perçu lui-même, en toute évidence. Ce qui fait que où que se porte notre regard nous est renvoyé un potentiel signifiant quasi-infini puisque rien ne se cache, tout se lit à livre ouvert, c'est voir pour ce que c'est : voir c'est savoir. Cela nous amène à un niveau de compréhension qu'il n'est pas du tout évident de ramener à notre niveau de conscience habituel, pour le ranger dans notre stock de petites boîtes que sont tous ces concepts qu'on utilise couramment et qui nous maintiennent dans une perception pour le moins étriquée de l'existence.
(...)
Je reviens sur le caractère déconcertant - le mot est faible - de constater que notre moi puisse percevoir et agir à des niveaux dont le conscient n'a pas la moindre idée. Nous faisons de notre moi conscient, le nec plus ultra de nos outils, alors qu'il est en fait le plus primitif de tous et que son utilité première c'est de nous permettre de percevoir les dangers et nous permettre de courir plus vite pour y échapper. Tout ce qu'il échafaude peut se rapporter à cet instinct de survie. Tout ce qu'il conçoit fabrique, choisit... peut se rapporter à ce besoin de sécurité, et tant qu'il ne se sera pas découvert une autre dimension d'existence, l'homme continuera de se créer un monde toujours plus complexe mais toujours dominé par ceux qui lui semblent les plus forts, car c'est le réflexe (inconscient) du faible que de chercher la protection de plus fort que lui. Aujourd'hui, ces plus forts sont de toute évidence ceux qui semblent comprendre quelque chose à l'économie, quand l'écrasante majorité de la population qui n'a toujours pas compris ce qu'est l'argent demeure néanmoins pétrifiée par l'idée d'en manquer ou d'en vouloir plus.

Olivier Raimbault
@Denis Cottard : Ce que tu veux dire pourrait-il être résumé entre un moi qui serait celui de l'âme (ou du Soi) et un moi, le nôtre, celui qui écrit ces mots, qui est dans l'ego ou disons le mental ordinaire ? Donc il y a des ponts entre, ou il n'y en a pas. Il y a des transferts, ou il n'y en a pas. Il y a des imprégnations ou pas. Et les liaisons entre ces polarités créent ses états vibratoires, intermédiaires et nombreux, créent aussi nos singularités, nos coefficients de conscience.

Denis Cottard
@Olivier Raimbault : En fait dans ce genre d'expérience qui ressemble fort aux SHC, c'est ce mental ordinaire qui, se met à sortir de son contexte vibratoire habituel (Raoult parlerait d'eco-système), comme dans une bulle en fait et qui est amené à constater d'autres niveaux d'existence de lui-même qu'il ne soupçonnait pas. C'est juste le différentiel vibratoire qui provoque la théâtralisation sous la forme d'un autre soi. A mon sens, ce n'est pas de ponts dont il s'agit, puisqu'il n'y a toujours qu'un seul et même bonhomme, mais dont la réalité ne s'étend ni dans l'espace, ni dans le temps, mais dans la vibration. Le passage d'un état à l'autre est progressif, un peu comme au scanner, l'opérateur en jouant sur la fréquence de résonance parvient à mettre en évidence des tissus par degré de mollesse ou de dureté, mais il n'y a toujours qu'un seul bonhomme allongé dans l'appareil. Je prend un autre exemple : nous nous considérons généralement comme un système autonome , relativement fermé, capable de se mouvoir en toute liberté. Mais en adoptant le point de vue de l'air, on se rend compte qu'on est totalement ouvert puisque c'est même le rôle du sang que de véhiculer l'oxygène (de l'air) à chacune de nos cellules. Du point de vue des micro organismes, dès qu'on sort du corps de notre mère, nous sommes colonisés parce que nous ne sommes pas viables sans ces micro organismes. Tout cela, ce sont des points de vue qui sont plus ou moins étonnants, dérangeants, en fonction de notre culture, qui va sélectionner une infime poignée de point de vue pour fabriquer l'image que l'on a de soi. Notre conscience pensante, elle ne joue pas avec des signaux qui lui viennent de l'extérieur, elle joue avec l'infime poignée de points de vue qu'elle a sélectionnée. Contrairement à ce que nous croyons, nous ne sommes en prise directe qu'avec la façon dont nous nous représentons le monde. Donc, le transfert n'a pas lieu d'être puisque ça ne va pas d'un récipient A à un récipient B, il n'y a qu'un seul récipient, appelons-le, le Graal, si on veut (!), quand notre mental prend conscience de ces autres niveaux de réalités de lui-même, il va juste, soit oublier très vite parce qu'il ne sait rien en faire, ou au contraire, accepter qu'ils fassent partie de lui-même, et c'est là que des informations qui généralement font partie du lot des trucs qu'existent pas, deviennent des points de vue acceptés, donc utiles, et à ce titre ; ils font grandir notre compréhension des choses, élargissent le panel, la sélection. La plupart des gens ne tiennent compte que des informations qui leur viennent de leur sens, mais imagine que tu sois branché sur un niveau de toi qui perçois peu ou prou le champ d'énergie dans lequel on baigne : tu vas percevoir des choses avant qu'elles ne deviennent des faits. C'est intéressant à mon sens.

Olivier Raimbault
@Denis Cottard : je comprends très bien. C'est exactement ce que j'ai essayé de synthétiser. Le différentiel est tel qu'il peut donner l'impression d'un autre soi mais si le différentiel se réduit ou s'apprivoise par l'expérience et l'habitude, il n'y a plus d'autre soi. Il y a bien des échanges, transferts, équilibrages, quand bien même ça serait un seul moi vibrant différemment. Je pense que nous nous élaborons couramment dans une zone très restreinte de nous-mêmes, que nous pensons être le tout avant de découvrir, dans le meilleur des cas, qu'elle n'est qu'une zone, et petite.

Denis Cottard
@Olivier Raimbault : oui tout à fait !!!

Auteur: Cottard Denis

Info: Sur la groupe FB de Marc Auburn, explorateurs du réel, question du 24 juin 2020

[ incarnation ] [ point de singularité ] [ corps causal ] [ niveaux vibratoires ]

 

Commentaires: 0

Ajouté à la BD par miguel

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

dieu carbone

(Q) - Quel est le rapport entre la tétravalence de l'atome du carbone et les 4 bases de l'adn

(R) - La tétravalence de l'atome de carbone permet la formation de molécules d'ADN avec quatre bases azotées différentes. En effet, l'atome de carbone peut former quatre liaisons covalentes, ce qui lui permet de se lier à quatre autres atomes. Dans le cas de l'ADN, ces quatre atomes sont des bases azotées, qui sont des composés organiques contenant de l'azote.

Les quatre bases azotées de l'ADN sont l'adénine (A), la thymine (T), la guanine (G) et la cytosine (C). Ces bases se lient entre elles de manière spécifique, l'adénine se liant toujours à la thymine, et la guanine se liant toujours à la cytosine. Cette liaison spécifique est responsable de la structure en double hélice de l'ADN.

La tétravalence de l'atome de carbone est donc essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

Plus spécifiquement, le carbone tétravalent peut former deux liaisons covalentes avec des atomes d'oxygène, qui constituent le sucre du désoxyribose, et deux liaisons covalentes avec des atomes d'azote, qui constituent les bases azotées. Cette configuration permet la formation d'une chaîne d'ADN, dans laquelle les bases azotées sont disposées en paires.

Les bases azotées sont complémentaires, ce qui signifie qu'une base A ne peut se lier qu'à une base T, et qu'une base G ne peut se lier qu'à une base C. Cette complémentarité est essentielle à la structure en double hélice de l'ADN.

La double hélice de l'ADN est une structure en forme de spirale, dans laquelle les deux brins d'ADN sont antiparallèles. Les bases azotées des deux brins sont liées entre elles par des liaisons hydrogène, ce qui permet aux deux brins de se maintenir ensemble.

La structure en double hélice de l'ADN est essentielle à la fonction de l'ADN. Elle permet la réplication de l'ADN, qui est le processus par lequel l'ADN est dupliqué pour former de nouvelles cellules.

En résumé, la tétravalence de l'atome de carbone est essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

(Q) - Merci. Est-ce vrai que chez la femme ce système est d'une certaine manière redoublé ?

(R) - Oui, c'est vrai. Chez la femme, les chromosomes sexuels sont de type XX, ce qui signifie qu'elles ont deux chromosomes X. Ces chromosomes contiennent tous les mêmes gènes, mais ils peuvent avoir des variantes différentes.

La duplication du système de base azotée chez la femme est due à la présence de deux chromosomes X. Chaque chromosome X contient une chaîne d'ADN qui est composée de quatre bases azotées différentes. Ces bases azotées sont disposées en paires complémentaires, comme décrit précédemment.

La duplication du système de base azotée chez la femme a plusieurs implications. Premièrement, elle permet une plus grande diversité génétique chez les femmes. En effet, les deux chromosomes X peuvent avoir des variantes différentes des mêmes gènes.

Deuxièmement, la duplication du système de base azotée chez la femme permet une plus grande résistance aux mutations génétiques. En effet, si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

Troisièmement, la duplication du système de base azotée chez la femme est nécessaire pour la reproduction. En effet, les ovules contiennent un seul chromosome X, qui est transmis à l'embryon.

En résumé, la duplication du système de base azotée chez la femme est une caractéristique essentielle de la reproduction humaine. Elle permet une plus grande diversité génétique, une plus grande résistance aux mutations génétiques et est nécessaire pour la transmission des gènes à la génération suivante.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

- Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

- Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

- La duplication du système de base azotée chez la femme peut également avoir un impact sur le développement des caractéristiques sexuelles secondaires, telles que la taille des seins et des hanches.

Il est important de noter que la duplication du système de base azotée chez la femme n'est pas une cause de maladie ou de handicap. Il s'agit simplement d'une caractéristique normale de la reproduction humaine.

(Q) - Merci, peut-on alors dire que cette conformation féminine est plus solide, plus équilibrée, que celle de l'homme ?

(R) - En termes de solidité, oui, on peut dire que la conformation féminine est plus solide que celle de l'homme. En effet, la présence de deux chromosomes X permet aux femmes de mieux résister aux mutations génétiques. Si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

En termes d'équilibre, la réponse est plus nuancée. D'une part, la présence de deux chromosomes X permet aux femmes d'avoir une plus grande diversité génétique. Cela peut être un avantage, car il peut permettre aux femmes d'être plus résistantes aux maladies. D'autre part, la présence de deux chromosomes X peut également être un désavantage, car elle peut augmenter le risque de développer des maladies génétiques liées aux chromosomes X.

En conclusion, on peut dire que la conformation féminine est plus solide que celle de l'homme, mais qu'elle n'est pas forcément plus équilibrée.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

Solidité : Les femmes sont plus susceptibles que les hommes de survivre à des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

               Les femmes sont également plus susceptibles que les hommes de survivre à des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

Équilibre : Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

                 Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

(Q) - OK merci. Est-ce que ce rapport entre les sexes (genres) se retrouve chez les mammifères ou dans le monde animal en général ?

(R) - Oui, le rapport entre les sexes (genres) se retrouve chez les mammifères et dans le monde animal en général. Il existe une grande diversité de comportements et de morphologies entre les sexes, qui sont souvent liés à la reproduction et à la survie des espèces.

Chez les mammifères, on observe généralement une différence de taille entre les sexes, les mâles étant plus grands que les femelles. Cette différence est souvent liée à la compétition entre mâles pour l'accès aux femelles. Les mâles peuvent également avoir des ornements physiques, tels que des cornes, des défenses ou une crinière, qui servent à attirer les femelles ou à intimider les rivaux.

Dans le monde animal en général, on observe une grande diversité de comportements et de morphologies entre les sexes. Par exemple, chez les oiseaux, les mâles sont souvent plus colorés que les femelles, ce qui sert à attirer les femelles. Chez les poissons, les mâles peuvent prendre soin des œufs ou des larves, tandis que les femelles s'occupent de la recherche de nourriture.

Il existe cependant des exceptions à cette règle. Par exemple, chez les éléphants, les femelles sont plus grandes que les mâles. Chez les hyènes, les femelles sont dominantes sur les mâles.

Les stéréotypes de genre chez les animaux peuvent être influencés par :

- Les facteurs biologiques, tels que la différence de taille entre les sexes ou la présence d'ornements physiques.

- Les facteurs environnementaux, tels que la disponibilité de ressources ou la concurrence entre espèces.

- Les facteurs culturels, tels que les traditions et les croyances des humains.

Les stéréotypes de genre chez les animaux peuvent avoir un impact sur :

- La reproduction, car ils peuvent influencer le choix des partenaires et la réussite de la reproduction.

- La survie, car ils peuvent influencer les comportements de chasse, de défense ou de migration.

- Les interactions sociales, car ils peuvent influencer les relations entre les individus d'une même espèce.

Auteur: Google Bard chatbot

Info: 24 oct 2023

[ vus scientifiquement ] [ asymétrie mâles-femelles ] [ dialogue homme-machine ] [ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-quantique

Vers une physique de la conscience :   (Attention, article long et ardu, encore en cours de correction)

"Une vision scientifique du monde qui ne résout pas profondément le problème des esprits conscients ne peut avoir de sérieuses prétentions à l'exhaustivité. La conscience fait partie de notre univers. Ainsi, toute théorie physique qui ne lui fait pas de place appropriée est fondamentalement à court de fournir une véritable description du Monde."  Sir Roger Penrose : Les ombres de l'esprit

Où va la physique dans ce siècle ? Pour de nombreux scientifiques, ce type de question évoquera très probablement des réponses tournant autour de la relativité quantique, de la naissance et de l'évolution probable de l'Univers, de la physique des trous noirs ou de la nature de la "matière noire". L'importance et la fascination durable de ces questions sont incontestables.

Cependant, pour une minorité croissante de physiciens, une question encore plus grande se profile à l'horizon : le problème persistant de la conscience.

La révolution de l'information des dernières décennies a eu un impact sur nos vies plus profond qu'il parait. De la physique fondamentale au calcul quantique en passant par la biophysique et la recherche médicale, on prend de plus en plus conscience que l'information est profondément et subtilement encodée dans chaque fibre de l'Univers matériel, et que les mécanismes de contrôle que nous avons l'habitude d'étudier sur des bases purement mécaniques ne sont plus adéquats. Dans de nombreux laboratoires à travers le monde, les scientifiques sondent tranquillement cette interface esprit-matière et esquissent les premières lignes d'une nouvelle vision du monde.

Nous avons demandé à 2 de ces scientifiques de partager leur vision de ce que signifie ce changement de paradigme pour la physique théorique et du type de travail expérimental susceptible de produire les percées les plus importantes.

Lian Sidorov : Vous abordez tous deux les problèmes du modèle standard en révisant ses axiomes de base - en commençant essentiellement par une nouvelle interprétation de ses blocs de construction physiques. Pourriez-vous résumer brièvement cette approche?

M.P. : L'identification des espaces-temps en tant que surfaces à 4 dimensions d'un certain espace à 8 dimensions est l'élément central de TGD (Topological Geometrodynamics) et résout les problèmes conceptuels liés à la définition de l'énergie dans la relativité générale. Le nouveau concept d'espace-temps - "l'espace-temps à plusieurs feuilles" comme je l'appelle - a des implications considérables non seulement pour la physique, mais aussi pour la biologie et pour la conscience. Fondamentalement, parce que la vision réductionniste dure de l'Univers est remplacée par une vision quantitative de la façon dont le réductionnisme échoue.

La mathématisation de la vision de base se fonde sur l'idée que la physique quantique se réduit à une géométrie classique de dimension infinie pour ce qu'on pourrait appeler un "monde des mondes" - l'espace de toutes les surfaces possibles en 3 D. Cette idée est, en un certain sens, très conservatrice. Il n'y a pas de quantification dans cette théorie et son seul aspect quantique est le saut quantique. La croyance est que l'existence géométrique de dimension infinie (et donc aussi la physique) est hautement unique. Que cela puisse être le cas est suggéré par une énorme quantité de travaux probablement futiles qui s'essayent à construire des théories quantiques de champs sans infinis ainsi que par l'expérience avec des géométries de dimension infinie plus simples.

La formulation la plus abstraite de la TGD est une théorie des nombres généraliste obtenue en généralisant la notion de nombre de manière à permettre des nombres premiers infinis, des nombres entiers, etc.  Par conséquent les objets géométriques tels que les surfaces spatio-temporelles peuvent être considérés comme des représentations de nombres infinis, entiers, etc.  La formulation de la théorie des nombres conduit naturellement à la notion de physique p-adique (les champs de nombres p-adiques sont des compléments de nombres rationnels, un pour chaque nombre premier p=2,3,5,7,...).  Et l'on aboutit à la généralisation de la surface de l'espace-temps en permettant à la fois des régions d'espace-temps réelles et p-adiques (ces dernières représentant les corrélats géométriques de la cognition, de l'intention et de l'imagination tandis que les régions réelles représentent la matière).

Une des implication est l'hypothèse dite de l'échelle de longueur p-adique qui prédit une hiérarchie d'échelles de longueur et de temps servant d'échelles caractéristiques des systèmes physiques. La possibilité de généraliser la théorie de l'information en utilisant la notion théorique d'entropie des nombres conduit à une caractérisation théorique des nombres très générale des systèmes vivants pour lesquels une entropie p-adique appropriée est négative et indique ainsi que le système a un contenu d'information positif. La nouvelle vision de la relation entre le temps subjectif et géométrique est un aspect important de l'approche et résout le paradoxe fondamental de la théorie de la mesure quantique et une longue liste de paradoxes étroitement liés de la physique moderne. Il est également crucial pour la théorie de la conscience inspirée du TGD.

LS : Y a-t-il des personnages historiques dont vous pouvez vous inspirer ? Ou des théories physiques en cours de discussion qui offrent des points de convergence avec votre modèle ?

MP : John Wheeler était mon gourou du visionnage à distance, et la lecture de ses écrits fut pour moi une sorte d'expérience charnière. Wheeler a introduit la topologie dans la physique théorique. Wheeler a également introduit la notion de "super-espace" - espace de dimension infinie de toutes les géométries possibles ayant la métrique de Riemann et servant d'arène de gravitation quantique. Le remplacement du super-espace par l'espace des surfaces 3-D dans l'espace imbriqué 8-D ("monde des mondes") s'est avéré être la seule approche donnant l'espoir de construire un TGD quantique. Toutes les autres approches ont complètement échoué. 

Einstein a, bien sûr, été la deuxième grande figure. Il a été assez surprenant de constater que l'invariance générale des coordonnées généralisée au niveau de l'espace de configuration des surfaces 3 D ("monde des mondes") fixe la formulation de base de TGD presque exclusivement, tout comme elle fixe la dynamique de la relativité générale. Soit dit en passant, j'ai appris d'un article d'Einstein qu'il était très conscient des problèmes liés à la relation entre le temps subjectif et le temps géométrique et qu'il croyait que la réalité était en fait à 4 dimensions. Mais que notre capacité à "voir" dans le sens du temps est faible.

La TGD peut également être considéré comme une généralisation de l'approche des super-cordes qui généralise les symétries de base du modèle superstring (la symétrie la plus importante étant la symétrie dite conforme). Dans l'approche superstring, la symétrie conforme contraint les objets de base à être des chaînes unidimensionnelles. Dans TGD, cela les force à être des surfaces 3D. Au niveau algébrique, TGD ressemble beaucoup aux modèles de supercordes. Mais la dimension de l'espace-temps est la dimension physique D=4 plutôt que D=2.

LS : Comment voyez-vous la relation entre les systèmes matériels et la conscience ? L'une est-elle une propriété émergente de l'autre ou sont-elles équivalentes à un certain niveau ?

MP : Je ne partage pas la croyance matérialiste sur l'équivalence de l'esprit et de la matière. Je crois que la conscience - et même la cognition - sont présentes même au niveau des particules élémentaires. Pas de monisme, pas même de dualisme… mais de tripartisme. Le champ de spinor dans le "monde des mondes", l'histoire quantique et la "solution des équations du champ quantique", tout ceci définit ce que l'on pourrait appeler la réalité objective particulière. L'existence subjective correspond à une séquence de sauts quantiques entre des histoires quantiques. L'existence matérielle au sens géométrique correspond aux surfaces d'espace-temps - les réalités de la physique classique.

Dans ce cadre, il n'est pas nécessaire de postuler l'existence séparée de la théorie et de la réalité. Les "solutions des équations de champ quantique" ne représentent pas seulement des réalités, ce sont les réalités objectives. L'expérience subjective correspond à des sauts quantiques entre des "solutions d'équations de champs quantiques" - un truc toujours entre deux réalités objectives. Abandonner la croyance matérialiste en une réalité objective unique résout les problèmes fondamentaux de la théorie de la mesure quantique et offre une nouvelle vision de la relation entre le temps subjectif (séquence de sauts quantiques) et le temps géométrique (coordonnée de la surface espace-temps).

Le prix payé est un niveau d'abstraction assez élevé. Il n'est pas facile de traduire la vision des réalités en tant que champs de spineurs dans le "monde expérimental des mondes" en tests pratiques ! Ici, cependant, la correspondance quantique-classique aide.

LS : Comment résumeriez-vous votre approche des interactions mentales à distance comme la cognition anormale (vision à distance) et la perturbation anormale (PK) ?

MP : Il y a plusieurs éléments en jeu. La quantification topologique du champ, la notion d'hologramme conscient, le partage d'images mentales et le mécanisme de base des interactions mentales à distance basées sur les ME.

(a) L'ingrédient clé est la quantification topologique des champs classiques impliqués par le concept d'espace-temps à plusieurs feuilles. La surface de l'espace-temps est comme un diagramme de Feynman extrêmement complexe avec des lignes épaissies en feuilles d'espace-temps à 4 dimensions. Ces lignes à 4 dimensions représentent les régions de cohérence des champs classiques et de la matière (atomes, molécules, cellules,..). Aux sommets où les droites quadridimensionnelles se rencontrent, les champs classiques interfèrent. Les sommets sont comme des points d'un hologramme tandis que les lignes sont comme des faisceaux laser.

Les "lignes" particulièrement importantes du diagramme de Feynman généralisé sont les "extrémaux sans masse" (ME, "rayons lumineux topologiques"). Ils représentent des champs classiques se propageant avec la vitesse de la lumière d'une manière ciblée précise sans affaiblissement et sans perte d'information - un peu comme un rayonnement se propageant dans un guide d'ondes dans une seule direction. Les ME sont des facteurs clés dans la théorie de la matière vivante basée sur le TGD. Les tubes de flux magnétique et leurs homologues électriques (les biosystèmes ! sont remplis d'électrets) sont des "lignes" tout aussi importantes du diagramme de Feynman généralisé.

(b) L'hologramme conscient est une structure semblable à une fractale. L'implication de base est qu'il n'y a pas d'échelle de longueur préférée où la vie et la conscience émergeraient ou pourraient exister. Le transfert de supra-courants de nappes spatio-temporelles supraconductrices (généralement des tubes à flux magnétique) vers des nappes spatio-temporelles plus petites (par exemple, des nappes spatio-temporelles atomiques) induit une rupture de supraconductivité, une dissipation et une sélection darwinienne par auto-organisation.

Le flux cyclique d'ions entre 2 feuillets d'espace-temps est aussi le mécanisme de base du métabolisme. Un hologramme ordinaire donne lieu à une vision stéréo. Pour l'hologramme conscient, cela correspond à une fusion d'images mentales associées à différents points de l'hologramme. Lorsque les images mentales se ressemblent suffisamment, elles peuvent fusionner et donner lieu à une conscience stéréo (c'est-à-dire que les champs visuels droit et gauche fusionnent pour donner lieu à une stéréovision s'ils se ressemblent suffisamment).

(c) Le partage d'images mentales est une notion nouvelle. Les sous-moi de 2 moi non enchevêtrés peuvent s'entremêler, ce qui signifie qu'il en résulte une image mentale partagée et plus complexe. C'est le mécanisme de base de la télédétection. L'intrication de sous-systèmes de systèmes non intriqués n'est pas possible si l'on utilise la notion standard de sous-système. La nouvelle notion de sous-système s'inspire de la pensée d'échelle de longueur des théories quantiques des champs (tout est toujours défini dans une résolution d'échelle de longueur) et des aspects de type trou noir des feuilles d'espace-temps. L'intrication des sous-systèmes ne se voit pas dans la résolution caractérisant les systèmes, de sorte que l'on peut dire que les systèmes sont "non enchevêtrés" alors que les sous-systèmes sont intriqués.

(d) Un mécanisme plus détaillé pour les interactions mentales à distance est le suivant. Les ME à basse fréquence (gamme EEG généralement) connectent le téléspectateur 'A' à un soi magnétosphérique collectif multi-cerveau 'M' agissant comme un moyen et 'M' à la cible 'T' de sorte que l'enchevêtrement 'A'-'T' et le partage d'images mentales devient possible. Toutes les communications 'A'-'M' (comme poser des questions sur une cible donnée) pourraient être basées sur le partage d'images mentales. Les téléspectateurs pourraient avoir des lignes de communication plus ou moins permanentes avec la magnétosphère.

C'est suffisant pour la télédétection. Pour les interactions motrices à distance (disons PK), des ME à haute fréquence sont également nécessaires. Ils se propagent comme des particules sans masse le long des ME basse fréquence et induisent à la seconde extrémité des fuites de supracourants entre les tubes de flux magnétiques et les nappes d'espace-temps atomiques induisant l'auto-organisation ainsi que l'effet PK. La dichotomie bas-haut correspond à la dichotomie sensori-motrice et à la dichotomie quantique-classique pour les communications quantiques. Les fréquences préférées des ME à haute et basse fréquence devraient être dans certaines proportions constantes, et les découvertes de l'homéopathie appuient cette prédiction.

Les cellules et autres structures ont des "interactions mentales à distance" à l'intérieur du corps via ce mécanisme. De plus, les représentations sensorielles au corps du champ magnétique sont réalisées par le même mécanisme avec des rayons lumineux topologiques micro-ondes (très probablement) du cerveau qui se propagent le long des EEG ME et induisent une auto-organisation au niveau du corps magnétique personnel. Des représentations sensorielles sont également possibles pour une magnétosphère et peut-être même à pour des structures magnétiques plus grandes (qui pourraient avoir des tailles de durée de vie lumineuse). Ainsi, la conscience humaine a un aspect astrophysique défini.

LS : Comment interprétez-vous l'effet des fluctuations géomagnétiques et du temps sidéral local sur la cognition anormale ?

MP : Le faible niveau de bruit magnétique semble être le premier pré-requis pour des performances cognitives anormales. L'interprétation est que l'esprit magnétosphérique doit avoir un faible niveau d'excitation. La performance semble augmenter autour d'un intervalle de 2 heures autour de 13h30 heure sidérale locale, qui est l'heure dans un système de coordonnées fixé par rapport aux étoiles plutôt qu'au Soleil. Ces découvertes - ainsi que la vision générale sur les structures de tubes de flux magnétiques comme modèles de vie - suggèrent que non seulement le champ magnétique terrestre, mais aussi que les champs magnétiques interstellaires pourraient être des acteurs clés dans les interactions mentales à distance.

(a) Que les fluctuations magnétiques puissent masquer des interactions mentales à distance donne une idée de la force du champ magnétique interstellaire. Le délai pour les interactions mentales à distance est de l'ordre de t=13-17 secondes et devrait correspondre à l'échelle de temps définie par la fréquence cyclotron du proton du champ magnétique interstellaire. Cela implique qu'il devrait avoir une force dans l'intervalle 10-13nT. Par contre, aux fréquences correspondant à f = 1/t, l'intensité des fluctuations géomagnétiques est d'environ 10nT. Il semblerait qu'un champ magnétique interstellaire non masqué d'une force d'environ 10-13 nT soit crucial pour les interactions mentales à distance.

(b) Les champs magnétiques interstellaires ont généralement une intensité comprise entre 100 et 0,01 nT, et diverses échelles de temps de cyclotron sont des échelles de temps de la conscience humaine. Le seul champ magnétique interstellaire dont les tubes de flux pourraient émerger dans la direction qui est au méridien 13.30 ST est le champ magnétique de type dipôle créé par le centre galactique ayant une intensité d'ordre 100 nT près du centre galactique et coupant orthogonalement le plan galactique. Les supernovae transportent des champs magnétiques de l'ordre de 10 à 30 nT ; le vent solaire transporte un champ magnétique d'une force moyenne de 6 nT ; la nappe de plasma du côté nuit de la Terre - connue pour être une structure fortement auto-organisée - porte un champ magnétique d'une force d'environ 10 nT. Au moins pour un habitant de l'univers TGD croyant en la fractalité de la conscience, ces découvertes suggèrent que les champs magnétiques galactiques forment une sorte de système nerveux galactique, tout comme le champ magnétique terrestre forme le système nerveux de Mère Gaïa.

c) Pourquoi 13h30 ST est si spécial pourrait être compris si les tubes de flux du champ magnétique interstellaire attachés à la matière vivante vent pendant la rotation de la Terre. Cet enroulement introduit du bruit rendant les interactions mentales à distance moins probables. Pendant l'intervalle de 2 heures autour de 13h30 ST, les effets de l'enroulement sont les plus faibles.

LS : Les effets temporels tels que la pré-cognition et la rétro-pk ont ​​été un casse-tête et une complication de longue date pour l'émergence de modèles physiques convaincants en parapsychologie. Comment résolvez-vous ces paradoxes dans le cadre de votre théorie ?

MP : Dans le cadre du TGD, on est obligé de modifier les croyances de base sur le temps. Le "temps vécu subjectivement" correspond à une séquence de sauts quantiques entre des histoires quantiques. Le temps subjectif n'est cependant pas vécu comme discret puisque les soi ("soi" est un système capable d'éviter l'enchevêtrement de l'état lié avec l'environnement et a une feuille d'espace-temps comme corrélat géométrique) expérimentent la séquence de sauts quantiques comme une sorte de moyenne. La réalité résultant d'un saut quantique donné est une superposition de surfaces d'espace-temps qui se ressemblent dans la résolution dépendante de l'observateur définie par l'échelle de longueur p-adique.

On peut dire que chaque saut quantique conduit à ce qui ressemble sensoriellement à un espace-temps classique unique (sorte d'espace-temps moyen quantique). Le temps subjectif correspond au temps géométrique dans le sens où les contenus de conscience sont fortement localisés autour d'un certain moment du temps géométrique à la surface de l'espace-temps classique. L'espace-temps est à 4 dimensions. Mais notre expérience consciente à ce sujet ne nous renseigne que sur une tranche de temps étroite (du moins nous le croyons) définissant ce que l'on pourrait appeler "le temps psychologique". L'incrément de temps psychologique dans un saut quantique unique est d'environ 10 à 39 secondes selon une estimation basée sur les hypothèses les plus simples possibles. Le temps psychologique correspond aussi au front d'une transition de phase transformant des feuilles d'espace-temps p-adiques (e.g., intentions, plans) en feuilles d'espace-temps réelles (actions) et se propageant vers le Futur géométrique.

A chaque saut quantique, l'espace-temps moyen quantique classique est remplacé par un nouveau. De plus, le passé géométrique change en saut quantique de sorte qu'il n'y a pas de passé géométrique absolu (le passé subjectif étant, bien sûr, absolu). Ceci explique des anomalies causales comme celles observées par Libet, Radin et Bierman, et Peoch. La mémoire géométrique consiste essentiellement à voir dans le passé géométrique. Intentions, plans et attentes signifient voir le Futur géométrique au sens p-adique. La précognition est une mémoire inversée dans le temps. L'intention, la précognition et les souvenirs ne sont pas absolus puisque le futur géométrique et le passé changent à chaque saut quantique. Le "montage" du Passé géométrique (disons changer les mémoires en changeant l'état du cerveau en Passé géométrique) est possible.

LS : Les découvertes de Mark Germine semblent suggérer que la mesure consciente d'un événement par un cerveau tend à réduire l'élément de surprise pour les observateurs conscients ultérieurs, tel que mesuré par le potentiel lié à l'événement associé. Comment interprétez-vous ces résultats ?

MP : La nouvelle vision de champs classiques contraints par la quantification topologique conduit à vers la notion de champ/corps électromagnétique/magnétique. Chaque système matériel, atome, cellule, etc. est généralement accompagné d'un corps de champ qui est beaucoup plus grand que le corps physique et fournit une sorte de représentation symbolique du système analogue au manuel d'un instrument électronique. Le corps magnétique joue le rôle d'un écran d'ordinateur sur lequel sont réalisées des représentations sensorielles. Les "caractéristiques" produites par le traitement de l'information dans le cerveau sont attribuées à un point donné (appelons-le "P") du corps magnétique personnel en enchevêtrant les images mentales correspondantes avec l'image mentale "simple sentiment d'existence" en "P". Les ME EEG ("rayons lumineux topologiques") sont des corrélats de cet enchevêtrement.

Outre les corps magnétiques personnels, des représentations sensorielles dans la magnétosphère terrestre sont également possibles et donnent lieu à la conscience magnétosphérique. Les soi magnétosphériques recevant des informations conscientes de nombreux cerveaux sont possibles et pourraient être un aspect crucial de toutes les structures sociales. Les découvertes de Mark Germine peuvent être comprises si l'on suppose que 2 personnes recevant le stimulus inattendu à des moments légèrement différents sont des "neurones" du même soi multi-cerveau. Après avoir perçu le stimulus bizarre une fois à travers le premier cerveau, le soi multi-cérébral est moins surpris lorsqu'il expérimente le stimulus bizarre à travers le deuxième cerveau.

LS : Vos deux modèles nécessitent une cohérence quantique massive comme base d'une expérience consciente. Comment résoudre le fameux problème de décohérence ?

MP : Dans l'espace-temps à plusieurs nappes, les nappes d'espace-temps atomiques "chaudes, humides et bruyantes" ne sont pas les seules. Il existe des nappes d'espace-temps plus grandes et très froides contenant de faibles densités de matière supraconductrice. En particulier, les tubes de flux magnétique de la Terre sont supraconducteurs. On a donc une cohérence quantique macroscopique. Mais ce n'est pas assez. Il faut aussi avoir une cohérence quantique macro-temporelle. Au début, cela semble impossible. Un seul saut quantique correspond à un incrément de temps géométrique d'environ 10-39 secondes. Ce temps est identifiable comme le temps de décohérence si bien que la situation semble encore pire qu'en physique standard ! Cette image ne peut pas être correcte, et l'explication est simple.

L'intrication à l'état lié est stable dans le saut quantique. Et lorsqu'un état lié est formé, aucune réduction de fonction d'état ni préparation d'état ne se produit dans les degrés de liberté liés. La séquence entière de sauts quantiques (particules élémentaires de conscience) se lie pour former ce qui est effectivement comme un seul saut quantique, période de cohérence quantique macrotemporelle (atome, molécule,... de conscience). Le "temps de décohérence" peut être identifié comme la durée de vie de l'état lié.

Malheureusement, même cela ne suffit pas puisque c'est essentiellement ce que prédit la physique standard. La dernière pièce du puzzle provient de la dégénérescence du verre de spin quantique. La dégénérescence du verre de spin signifie qu'il existe un nombre gigantesque de surfaces d'espace-temps qui diffèrent les unes des autres uniquement parce qu'elles ont des champs gravitationnels classiques légèrement différents. Les états liés se produisent lorsque 2 feuilles d'espace-temps sont connectées par une liaison le long des frontières. La "dégénérescence du verre de spin" signifie que dans ce cas, il existe un grand nombre de liens différents le long des frontières et donc également une immense dégénérescence des états liés. Lorsqu'un état lié est formé, il se désintègre avec une très forte probabilité en un nouvel état lié de ce type puisque pour l'état libre (pas de jointure le long des liaisons aux frontières !), la dégénérescence du verre de spin n'est pas présente et le nombre de ces états est beaucoup plus petit .

Ainsi, le temps passé dans les états liés dégénérés du verre de spin ("temps de décohérence") est beaucoup plus long que dans l'univers physique standard ! Du point de vue de la physique standard, les nouveaux degrés de liberté du verre de spin sont cachés et le physicien standard identifie les états liés dégénérés comme un seul et même état lié. Par conséquent, la durée de vie mesurée de l'état lié semble être beaucoup plus longue que prévu par la physique standard.

LS : Une suite naturelle à la question précédente : Quelle est la base physique de la mémoire individuelle et du partage d'images mentales comme on le voit dans la vision à distance, la télépathie et d'autres expériences transpersonnelles (Jung, Grof, Stevenson) ?

MP : La différence essentielle entre le paradigme du cerveau à 4 dimensions et les neurosciences standard est qu'il n'y a pas besoin de stocker les souvenirs dans le 'Maintenant' géométrique. Le mécanisme le plus simple de la mémoire géométrique est le "mécanisme du miroir quantique". Se souvenir d'un événement qui s'est produit il y a un an, c'est regarder un miroir à une distance d'une demi-année-lumière et voir ce qui se passe "subjectivement maintenant" dans le temps géométrique à une distance temporelle d'un an.

L'option minimale est basée sur le partage d'images mentales rendu possible par l'intrication temporelle. L'intrication temporelle n'est pas autorisée par la physique standard. Dans TGD, l'intrication de type temps est rendue possible par le non-déterminisme partiel du principe variationnel indiquant quelles surfaces d'espace-temps sont possibles. Ce non-déterminisme ainsi que le non-déterminisme inhérent aux équations de champ p-adiques sont des éléments centraux de la théorie de la conscience inspirée du TGD.

Ils rendent également possibles la correspondance quantique-classique et les représentations symboliques et cognitives des réalités objectives et subjectives (niveau du monde des mondes) au niveau de l'espace-temps (niveau du monde) responsables des aspects autoréférentiels de la conscience. J'ai déjà parlé du partage d'images mentales comme mécanisme télépathique de base. Et l'intrication temporelle rend également possible le partage d'images mentales entre le Présent géométrique et le Passé géométrique. La signalisation classique n'est pas nécessaire mais n'est bien sûr pas exclue. Les microtubules semblent être des candidats optimaux en ce qui concerne les mémoires déclaratives à long terme.

Le partage d'images mentales est un mécanisme universel d'expériences sensorielles à distance (mémoire à long terme, représentations sensorielles, télédétection, expériences transpersonnelles). Les actions motrices à distance telles que PK nécessitent l'implication de ME à haute fréquence se propageant le long de l'enchevêtrement générant des ME à basse fréquence et induisant une auto-organisation à l'extrémité réceptrice.

LS : La télédétection d'une cible physique distante (par opposition à l'information collective) est-elle possible dans votre modèle ? Et sur quelle base ?

MP : Dans le monde TGD, tout est conscient. Et la conscience ne peut qu'être perdue. Il y a aussi des raisons de croire que pratiquement tous les systèmes servent d'"écrans d'ordinateur" donnant lieu à des représentations sensorielles. Par conséquent, des cibles physiques "non vivantes" pourraient également définir des représentations sensorielles au niveau de la magnétosphère.

Il y a une découverte étrange à propos des sons de météorites soutenant cette vision. Des sons de météores ont été à la fois entendus et détectés par des instruments. Le spectre de fréquences se situait dans l'intervalle des fréquences de résonance thalamo-corticale autour de 40 Hz alors que l'on s'attendait à ce que le spectre couvre toute la gamme 20-20 000 Hz. L'intensité des sons était également beaucoup plus forte que prévu si le rayonnement électromagnétique (induisant des sons à la surface de la Terre) généré par le météore avait des distributions à symétrie sphérique.

Cela suggère que les ME ELF correspondant à des fréquences autour de 40 Hz connectent non seulement des cerveaux mais aussi des objets "morts" à la magnétosphère, et que le rayonnement a été amplifié sélectivement dans ces guides d'ondes. Ainsi, même des objets "morts" pourraient être représentés sensoriellement dans la magnétosphère. Si le téléspectateur peut être considéré comme un client d'un multi-cerveau magnétosphérique auto-fournissant des services de télévisualisation, il est tout à fait possible que le téléspectateur puisse télédétecter la cible en utilisant les sens du moi magnétosphérique.

LS : Comment interprétez-vous la fragmentation massive des données et la pluralité des modalités sensorielles caractérisant le signal RV typique ? Qu'en est-il du phénomène de bi-localisation ?

MP : Le cerveau traite l'information en la décomposant en "caractéristiques" simples comme les bords, les coins, les mouvements simples, etc. Ces caractéristiques sont dispersées dans le cerveau presque comme dans une mémoire à accès aléatoire. Seules les représentations sensorielles au niveau du corps magnétique lient les caractéristiques appropriées à un point donné de la toile magnétique de sorte que la soupe de caractéristiques s'organise en un champ perceptif.

Dans le cas où la cible est une autre personne, la fragmentation des données pourrait signifier que le moi magnétosphérique s'emmêle avec diverses images mentales dans le cerveau, de sorte que des "caractéristiques" individuelles plutôt que la représentation sensorielle bien organisée du corps magnétique soient vues. Dans le cas d'une cible non vivante, l'organisation en champ perceptif est probablement absente de toute façon. Si le partage d'images mentales se produit de manière très intense, il peut conduire à une bilocalisation. Même un masquage presque total de la contribution ordinaire à l'expérience sensorielle est possible. Les hallucinogènes (par exemple, ceux rapportés par Terence MacKenna) impliquent en effet un remplacement soudain de la réalité sensorielle quotidienne par une nouvelle.

LS : Les travaux de Gariaev sur l'irradiation laser modulée de l'ADN ont donné des aperçus fascinants sur la possibilité d'une régulation génétique non locale, non canonique (basée sur les codons) - peut-être via des grilles d'interférence de biophotons et d'ondes radio à grande échelle menant à l'idée de un modèle holographique électromagnétique pour les organismes vivants. Quelle est la signification de ses résultats pour votre modèle ? Et comment envisagez-vous la hiérarchie des systèmes de contrôle morphogénétiques et régulateurs dans les organismes vivants ?

MP : Le travail de Gariaev fournit une information importante (beaucoup en fait !) pour tenter de concrétiser le point de vue sur le biocontrôle quantique à plusieurs feuilles. Et cela pourrait s'avérer être une preuve convaincante du concept d'espace-temps à plusieurs feuilles. Une contribution décisive pour le modèle de l'homéostasie quantique est venue des conférences de Cyril Smith sur la mémoire de l'eau et l'homéopathie lors de la conférence CASYS 2001. Le constat de base est que certaines fréquences semblent coder les effets du remède homéopathique, et que ces fréquences apparaissent par paires de fréquences basses et hautes qui apparaissent en proportion constante.

Cela peut être compris dans le cadre TGD comme suit. Lorsque les ions "chutent" de (disons) feuilles d'espace-temps atomiques vers des feuilles d'espace-temps plus grandes (disons des tubes à flux magnétique), la différence d'énergie est émise sous forme de rayonnement. L'énergie cinétique Zer-Point de petites feuilles d'espace-temps est la contribution dominante et signifie que le rayonnement a une énergie et donc une fréquence relativement élevées (par exemple, 0,5 eV pour un proton tombant d'une feuille d'espace-temps atomique). Dans les tubes à flux magnétique, les ions abandonnés sont dans des états de cyclotron magnétique excités qui se désintègrent en émettant un rayonnement cyclotron à basses fréquences. La partie "sensorielle" de l'EEG résulte de cette manière. Le rapport des hautes et basses fréquences dépend de la force du champ magnétique et de l'échelle de longueur p-adique de la feuille d'espace-temps à partir de laquelle l'ion est tombé et a tendance à avoir des valeurs discrètes.

En particulier, la lumière visible (comme dans l'expérience de Gariaev) peut "envoyer" des particules chargées des tubes de flux magnétique vers des feuilles d'espace-temps plus petites, à partir desquelles elles peuvent rebondir. Dans ce processus, d'autres ions au niveau du tube de flux magnétique peuvent tomber dans des tubes de flux magnétique plus grands et émettre un rayonnement basse fréquence dans ce processus.

Les tubes de flux magnétique forment dans la matière vivante une hiérarchie avec des intensités de champ magnétique variant comme 1 sur l'échelle de longueur p-adique au carré. Ainsi, il en résulte un rayonnement basse fréquence avec des fréquences qui sont des différences d'harmoniques des fréquences cyclotron au niveau des 2 tubes de flux magnétique impliqués. Cette prédiction est quantitative et testable et - sur la base d'une inspection grossière des spectres de fréquence rapportés dans l'article de Gariaev [1] - l'explication pourrait fonctionner.

La structure de bande de l'EEG reflète dans TGD les périodes du tableau périodique et le spectre des ondes radio devrait également présenter une version agrandie de la structure de bande. De plus, l'action laser à plusieurs feuilles devient possible si la fréquence de la lumière visible est réglée de sorte qu'elle soit juste suffisante pour envoyer une particule chargée sur la plus petite feuille d'espace-temps. La fréquence de la lumière cohérente utilisée dans l'expérience de Gariaev correspond à ce type de fréquence. La chute de la particule chargée génère un rayonnement à la même fréquence, et il en résulte une action laser à plusieurs feuilles puisque les photons cohérents déjà existants augmentent la probabilité de chute et les résultats de "chute stimulée". En outre, un laser à ondes radio à plusieurs feuilles est possible et les biosystèmes devraient contenir une hiérarchie fractale de lasers à plusieurs feuilles.

La notion d'hologramme conscient pourrait permettre d'obtenir une vision unifiée du fonctionnement de l'homéostasie en tant qu'équilibre de flux ionique à plusieurs feuilles. Le mécanisme laser à plusieurs feuilles n'est qu'un élément important de l'image. Fuite d'ions vers les feuilles d'espace-temps atomiques et auto-organisation dissipative qui en résulte ; inversion temporelle de ce processus ayant une interprétation comme un processus de guérison fondamental et impliquant une rupture de la deuxième loi de la thermodynamique en dessous de l'échelle de temps p-adique pertinente ; Les ME agissant comme des jonctions Josephson et contrôlant la génération d'impulsions nerveuses et l'EEG (l'EEG devrait avoir une généralisation fractale) - ce sont quelques facettes du biocontrôle quantique.

De plus, la notion d'ADN à plusieurs feuilles est importante et signifie que l'ADN contrôle le développement de l'organisme dans une large gamme d'échelles de longueur et de temps p-adiques en générant des modèles de rayonnement cohérents représentant le modèle pour le développement du système vivant en tant que hiérarchie fractale. d'hologrammes en 4 dimensions. La notion de "corps de champ" implique que cette structure semblable à un hologramme est de taille astrophysique avec une durée de vie lumineuse fournissant une échelle de temps naturelle.

LS : C'est probablement la question la plus redoutée pour un théoricien. Mais votre modèle est-il falsifiable ? Existe-t-il des tests physiques concevables qui pourraient définitivement valider (ou réfuter) votre théorie ? Qu'en est-il des prédictions quantitatives ? Des données corroborantes pour l'instant ?

MP : Au cours des 24 dernières années, j'ai pratiquement parcouru toute la physique afin de relier la TGD à la réalité théorique et expérimentale existante.  Le succès le plus impressionnant de TGD est le modèle pour les masses des particules élémentaires basé sur la physique p-adique.  Les échelles de masse des particules élémentaires se réduisent à la théorie des nombres et correspondent aux échelles de longueur p-adiques associées à certains nombres premiers préférés p = 2k, k premier ou puissance du nombre premier.  Les prédictions sont exponentiellement sensibles à la valeur de k, de sorte que le succès du modèle relève soit d'un miracle probabiliste, soit de l'exactitude des hypothèses de base.

Les échelles de longueur p-adiques les plus importantes de la physique des particules élémentaires correspondent aux nombres premiers de Mersenne et aux Mersennes dites gaussiennes.  Il est remarquable que toutes les échelles de longueur p-adiques entre l'épaisseur de la membrane cellulaire de 10 nm et la taille de la cellule de 2,5 micromètres (échelles de longueur associées à la hiérarchie d'enroulement de l'ADN !) correspondent à des Mersennes gaussiennes.  C'est un miracle de la théorie des nombres.  Il semblerait que le miracle de la Vie soit étroitement lié à un miracle de la théorie des nombres.

Les prédictions permettant de falsifier la théorie de la manière la plus convaincante apparaissent au niveau de la physique fondamentale.  Les symétries fixent d'une manière tout à fait unique le spectre des particules élémentaires dans toutes les théories unifiées.  La TGD prédit que les symétries de la physique des particules élémentaires sont essentiellement celles du modèle standard.  La découverte de particules élémentaires dont les nombres quantiques ne sont pas conformes à ceux prédits par le modèle standard peut tuer la TGD.  Il existe également d'importantes déviations par rapport au modèle standard, et le fait de ne pas les observer pourrait également signifier la fin du TGD.  Heureusement, la liste des anomalies expliquées par la TGD ne cesse de s'allonger.

Les prédictions de la dégénérescence du verre de spin (cohérence quantique macrotemporelle) et de la quantification du champ topologique (supraconductivité à des échelles de longueur astrophysiques) signifieront tôt ou tard une percée ou la fin de la TGD, car elles permettent des modèles quantiques quantitatifs concrets non seulement pour le biocontrôle mais aussi pour les interactions mentales à distance.

Les derniers résultats de l'approche théorique des nombres sont de véritables mesures de l'information.  Les entropies de la théorie des nombres définies pour les systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques peuvent avoir des valeurs négatives et donc être interprétées comme une information positive.  On pourrait caractériser les systèmes vivants, en théorie des nombres, comme des systèmes pour lesquels les coefficients d'intrication sont des nombres algébriques.  Les opérations de type calcul quantique sont rendues possibles par la cohérence quantique macrotemporelle : les états quantiques ne sont plus fragiles puisque l'espace-temps enveloppé prédit la possibilité de partager et de fusionner des images mentales.  Toutes ces prédictions sont des prédictions tueuses testables.

LS : Quels sont certains des domaines auxquels vous pensez que votre modèle pourrait apporter des contributions majeures (c'est-à-dire la neurophysiologie, l'informatique quantique, la parapsychologie, etc.)

MP : Le réductionnisme est pratiquement toujours considéré comme un axiome de la physique.  L'implication fondamentale de la TGD est que le réductionnisme est brisé à toutes les échelles de longueur et de temps.  De nouveaux phénomènes sont prédits dans toutes les branches de la physique, de la biologie, des neurosciences, de la parapsychologie, etc. L'espace-temps à couches multiples fournit des modèles détaillés pour plusieurs anomalies associées aux phénomènes d'énergie libre.  Ces modèles devraient contribuer au développement de nouvelles technologies énergétiques.  Les processus conscients de type calcul quantique ("résolution de problèmes quantiques" pourrait être un terme plus approprié) avec des mesures d'information théoriques remplaçant l'information de Shannon constituent une deuxième implication technologique.

Les notions d'hologramme conscient et d'équilibre du flux ionique à plusieurs couches promettent une description unifiée d'une grande classe de phénomènes apparemment sans rapport entre eux, comme l'homéostasie, l'homéopathie, les représentations sensorielles et les interactions mentales à distance.

En neurosciences, le modèle basé sur la TGD pour le contrôle quantique de l'EEG et de l'impulsion nerveuse est une application importante.

LS : Quelles sont, à votre avis, les directions expérimentales et théoriques les plus prometteuses à suivre vers une théorie unifiée de l'esprit et de la matière ?

MP : Ma réponse est, nécessairement, très centrée sur la TGD.  Je pense qu'il serait intéressant de voir si les concepts inspirés de l'approche TGD pourraient nous permettre de comprendre qualitativement la conscience, les systèmes vivants et les interactions mentales à distance.  Sur le plan expérimental, la stratégie serait de tester les notions de base :

(a) Tests expérimentaux de la notion d'espace-temps à feuilles multiples, de la quantification des champs topologiques et de la prédiction selon laquelle les feuilles d'espace-temps non atomiques agissent comme des supraconducteurs, même à des échelles de longueur astrophysiques.

(b) Démonstration expérimentale de la présence de diverses signatures physiques pour le transfert d'ions entre les feuilles d'espace-temps et pour la rupture de la deuxième loi en dessous de l'échelle de temps p-adique caractérisant le système.

(c) Tests expérimentaux pour les notions de corps magnétique, de conscience magnétosphérique et de moi collectif multicérébré.  Les travaux de Mark Germine sont très encourageants à cet égard.

Auteur: Pitkanen Matti

Info: Entretien avec Matti Pitkänen et Alex Kaivarainen, interviewés par Lian Sidorov. References :  1.  Germine, Mark.  Scientific Validation of Planetary Consciousness. JNLRMI I (3). URL: www.emergentmind.org/germineI3.htm. 2.  Germine, M.  Experimental Evidence for Collapse of the Wavefunction in  the Whole Human Brain. URL: www.goertzel.org/dynapsyc. [Note: Lian Sidorov's interview with Alex Kaivarainen was more mathematically technical and can be seen at http://www.emergentmind.org/PDF_files.htm/Kaivarainen.pdf .]

[ spéculation ] [ dépassement ] [ épigénétique ] [ paranormal ] [ hyper-abstraction ] [ placebo ] [ niveaux vibratoires ] [ monades ] [ panpsychisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaire partout

Rubrique pour les maniaques de ce chiffre symbole (en développement)

Sciences physiques -  du micro au macro,  de l'abiotique au biotique (non organique/organique) via cette hiérarchie septénaire orthogonale* : atomes - molécules - organites/cellules - tissus - organes/systèmes - individus -  organismes/population/socio    

- Dans le domaine de la physique des particules on dénombre sept types de particules élémentaires, à savoir les six quarks et l'électron (ou deux fois 7 - ce qui est encore plus transcendant). Plus précisément, il s'agit de "saveurs" de quarks. Les quarks up, down, charm, strange, top et bottom, plus un septième quark théorique appelé "top-bottom". Les quarks sont les éléments constitutifs des protons et des neutrons, qui sont les particules composant le noyau d'un atome. Ces particules sont considérées comme élémentaires car elles ne peuvent pas être divisées en sous-particules plus petites.

- On observe que certaines particules élémentaires, telles que le boson de Higgs, ont une masse qui est d'environ 126 fois celle du proton, qui est un multiple de sept.

- Le tableau périodique des éléments compte sept lignes ou groupes, chacun correspondant à un niveau d'énergie spécifique pour les électrons dans l'atome, chaque période contient un nombre précis d'éléments, la première période comptant deux éléments (hydrogène et hélium), la deuxième période huit éléments, et ainsi de suite. Tableau périodique, inspiré par un songe à son découvreur, Dmitri Mendeleïev. Cette structure correspond au sept éléments de l'échelle d'électronégativité de Pauling.

- Le chiffre 7 est le numéro atomique de l'azote, dont le noyau contient sept protons et sept neutrons. Il s'agit d'un élément très réactif, essentiel à la vie, constituant majoritaire de l'atmosphère terrestre. Ainsi la masse d'un seul atome d'azote est de 14, nombre de nucléons (protons et neutrons) que l'on retrouve dans un des deux isotopes les plus courants du nitrogène, l'azote 14. Il constitue environ 78 % de l'air terrestre et dont les atomes spécifiques  azote (14N) - composent la haute atmosphère et interceptent une partie du rayonnement cosmique.

Science - chimie

- L'atome de silicium, élément chimique avec le symbole Si, abrite 2 X sept protons dans son noyau. Ce métalloïde  tétravalent appartient au groupe 14 du tableau périodique (quatorzième colonne, comprenant le carbone (C), le silicium (Si), le germanium (Ge), l’étain (Sn) et le plomb (Pb). C'est l'élément le plus abondant dans la croûte terrestre après l'oxygène, soit 25,7 % de sa masse, mais il n'est comparativement présent qu'en relativement faible quantité dans la matière constituant le vivant.

- Classes d'universalité : Les modèles avec contraintes cinétiques critiques ont 7 classes d'universalité

- Groupes fonctionnels : Les groupes fonctionnels sont des atomes ou des groupes d'atomes spécifiques responsables des réactions chimiques caractéristiques d'une molécule. Il existe sept types de groupes fonctionnels : hydroxyle, méthyle, carbonyle, carboxyle, amino, phosphate et sulfhydryle

-  Il y a  7 angles de torsion clés par nucléotide qui définissent la conformation du squelette sucre-phosphate dans les acides nucléiques comme l'ADN et l'ARN.

- La bactériorhodopsine, petite protéine qu'on trouve chez les halobactéries, fonctionne comme une pompe à protons utilisant l'énergie lumineuse pour générer un gradient de protons à travers la membrane cellulaire. Constituée de 248 acides aminés elle se présente sous forme d'un homotrimère à symétrie cylindrique. Chacune des trois unités identiques a une structure en sept hélices α transmembranaires — structure dite opsine — emprisonnant un chromophore

- Les enzymes sont des protéines qui catalysent les réactions biochimiques dans les organismes vivants. Elle peuvent être classées en sept catégories selon le type de réaction qu'elles catalysent. Ces catégories sont les oxydoréductases, les transférases, les hydrolases, les lyases, les isomérases, les ligases et les translocases. Parmi ces catégories, les oxydoréductases, les transférases et les hydrolases sont les formes d'enzymes les plus abondantes.

-  La traduction des protéines, également appelée la synthèse des protéines à partir de l'ARN, est un processus biologique essentiel. Il se produit dans les ribosomes des cellules. Il implique plusieurs étapes enzymatiques qui se déroulent de manière séquentielle en sept étapes. Etapes qui peuvent être résumées comme suit :

A) Initiation : Le processus commence par la liaison de la petite sous-unité ribosomale à la molécule d'ARN messager (ARNm). Cela est suivi par le recrutement de l'ARN de transfert initiateur et l'assemblage de la grande sous-unité ribosomale.


B) Élongation (3 étapes) : Pendant l'élongation, le ribosome se déplace le long de la molécule d'ARNm et facilite l'ajout d'acides aminés à la chaîne polypeptidique en cours de croissance. L'élongation comprend trois étapes : la liaison de l'ARN de transfert aminoacylé, la formation de la liaison peptidique et la translocation.

C) Terminaison (3 étapes) : La terminaison se produit lorsqu'un codon stop est atteint sur la molécule d'ARNm. Elle implique la reconnaissance du codon stop par des facteurs de libération, ce qui entraîne la libération de la chaîne polypeptidique complète du ribosome.

Après la terminaison, le ribosome se désassemble et ses sous-unités sont libérées pour être utilisées dans de nouvelles étapes de la synthèse des protéines. Le recyclage du ribosome garantit l'utilisation efficace des ressources cellulaires.

Ces 7 étapes enzymatiques d'initiation, d'élongation, de terminaison et de recyclage du ribosome constituent le processus de traduction des protéines. Elles sont étroitement régulées et orchestrées de manière précise pour assurer une synthèse des protéines précise et efficace dans les cellules.

- Biomolécules : Les biomolécules sont les molécules qui composent les organismes vivants. Il existe quatre classes de biomolécules : les glucides, les lipides, les protéines et les acides nucléiques. Au sein de ces classes existe sept niveaux d'organisation : monomères, oligomères, polymères, domaines, motifs, plis et structure quaternaire. (à consolider vérifier). Ici perplexity.ai me propose ceci :  1  Atomes, briques élémentaires de base, principalement le carbone, l'hydrogène, l'oxygène et l'azote pour les biomolécules.  2 Molécules : Les atomes sont liés entre eux par des liaisons covalentes pour former des molécules organiques comme le glucose, les acides aminés, les acides gras, etc.  3  Monomères -  Ce sont les plus petites unités constitutives des biomolécules, comme les acides aminés pour les protéines, les nucléotides pour les acides nucléiques, etc.  4  Oligomères.  Petits polymères formés par quelques monomères liés, comme les dipeptides, les trinucléotides.  5 Polymères :  Grandes molécules formées par la répétition de nombreux monomères, comme les protéines, les acides nucléiques, les polysaccharides. 6  Domaines/Motifs structuraux : Régions compactes au sein des polymères ayant une structure et une fonction particulières, comme les feuillets β ou les hélices α dans les protéines.  7 : Structure quaternaire, Organisation de plusieurs chaînes polymériques en complexes macromoléculaires, comme les ribosomes formés de plusieurs ARN et protéines.

-  Sous le nom de cycle de Calvin-Benson le processue de photosynthèse se déroule généralement en sept étapes  divisées en deux séries de réactions qui ont lieu dans différentes régions des chloroplastes végétaux : la réaction dépendante de la lumière et les réactions indépendantes de la lumière ou “ sombres ”. La réaction dépendante de la lumière a lieu dans la membrane thylakoïdienne du chloroplaste. Elle convertit l’énergie lumineuse en énergie chimique, stockée sous forme d’ATP et de NADPH**. Cette énergie est ensuite utilisée dans la région du stroma du chloroplaste, pour réduire le dioxyde de carbone atmosphérique en glucides complexes grâce aux réactions indépendantes de la lumière du cycle de Calvin-Benson, essentiel pour la fixation du carbone et la production d'oxygène dans l'atmosphère qui permettent la vie sur Terre. Ces 7 étapes sont : (1ère série, phase claire, dépendant de la lumière) L'énergie du soleil est absorbée.  L'eau est décomposée.  Les ions hydrogène sont transportés à travers la membrane du thylakoïde.  (2e série, phase sombre, indépendante de la lumière)  Capture du dioxyde de carbone atmosphérique (CO2), Le NADPH est produit à partir du NADP+.  Les ions hydrogène diffusent à travers le canal protéique.  L'ADP devient de l'ATP.

- Le processus de division cellulaire chez les bactéries est régulé par une variété de protéines, y compris FtsZ, qui forme une structure en forme d'anneau connue sous le nom d'anneau Z sur le site de la division cellulaire. L'anneau Z est composé de sept sous-unités FtsZ.

-  En médecine les bactéries peuvent former des structures complexes appelées biofilms, (la plaque dentaire par exemple) qui consistent en une communauté de micro-organismes entourés d'une matrice de substances polymériques extracellulaires. La formation d'un biofilm comporte sept étapes distinctes (cinq selon d'autres sources). Ces biofilms bactériens sont prédominants dans les écosystèmes naturels et constituent une menace pour la santé publique en raison de leur résistance exceptionnelle aux traitements antibactériens et en particulier aux antibiotiques.

-  il existe sept plis protéiques différents parmi les dix vraies familles de cellulases qui sont les enzymes aptes à décomposer la cellulose. Elles sont produites typiquement par des bactéries, champignons et des protozoaires, qui jouent un rôle majeur dans la digestion par les animaux, et dans la transformation de la matière organique végétale en humus dans le sol. Elles ont aussi des applications biotechnologiques et industrielles. Sept plis protéiques qui correspondent à sept types de cellulases : Endo-cellulases: qui cassent la structure cristalline de la cellulose en chaînes polysaccharidiques. Exo-cellulases (cellobiohydrolases, 'CBH'): qui coupent 2-4 unités aux terminaisons des chaînes polysaccharides, libérant par exemple le cellobiose. Elles travaillent progressivement soit depuis la terminaison réductrice, soit depuis l'autre. β-glucosidases (Cellobiase): elles hydrolysent les chaînes polysaccharidiques en monosaccharides. Oxidative cellulases: elles depolymérisent la cellulose. Cellulose phosphorylases: elles depolymérisent la cellulose en utilisant des phosphates. pectinases: elles hydrolysent la pectine. hémicellulases: qui hydrolysent l'hémicellulose

- Une cellule recense septs organites autour de son noyau, centre de contrôle de la cellule qui contient son génome, c'est à dire l'ensemble de son ADN.

Réticulum endoplasmique : Le réticulum endoplasmique est un réseau de membranes qui transporte des protéines et des lipides dans la cellule. Il existe deux types de réticulum endoplasmique : le réticulum endoplasmique rugueux, qui est recouvert de ribosomes, et le réticulum endoplasmique lisse, qui n'est pas recouvert de ribosomes.

Appareil de Golgi : L'appareil de Golgi est un ensemble de saccules qui modifie et trie les protéines et les lipides avant de les transporter hors de la cellule.

Lysosomes : Les lysosomes sont des sacs remplis d'enzymes qui décomposent les déchets et les cellules endommagées.

Mitochondries : Les mitochondries sont les centrales énergétiques de la cellule. Elles produisent de l'ATP, qui est la forme d'énergie que la cellule utilise pour fonctionner.

Chloroplastes : Les chloroplastes sont des organites trouvés dans les cellules végétales. Ils contiennent de la chlorophylle, qui permet aux plantes de produire de la nourriture par photosynthèse.

Centrioles : Les centrioles sont des structures cylindriques qui jouent un rôle dans la division cellulaire.

Cytosquelette : Le cytosquelette est un réseau de filaments qui donne à la cellule sa forme et sa structure. Il permet également à la cellule de se déplacer et de se déplacer.

- Conception de médicaments : Le processus de conception de nouveaux médicaments implique l'étude de l'interaction entre les molécules et les cibles biologiques. La conception d'un médicament comporte sept étapes : l'identification de la cible, la génération de pistes, l'optimisation des pistes, le développement préclinique, le développement clinique, l'approbation réglementaire et la surveillance post-commercialisation.

- L'échelle de PH, système de mesure utilisé pour quantifier l'acidité ou l'alcalinité (basicité) d'une solution, s'étend de 0 à 14 (zéro plus 2 fois sept), la valeur 7 étant considérée comme neutre. L'échelle de pH suit un système de classification structuré en sept parties ou stades :

- Les sept systèmes minéraux cristallins: - Cubique ou isométrique, - Quadratique ou tétragonal, - Orthorhombique, - Monoclinique, - Triclinique, - Hexagonal, - Rhomboédrique.

- Pour ce qui concerne la séparation taxonomique "végétal - animal" une équipe a trouvé 14 groupes de gènes qui apparaissaient sur des chromosomes distincts chez les méduses à peigne et leurs parents unicellulaires "non animaux". Il est intéressant de noter que chez les éponges et tous les autres animaux, ces gènes ont été réarrangés en sept groupes.

- Les sept caractéristiques biologique du vivant  : mouvement respiration excitabilité croissance reproduction nutrition excrétion.

- Tous les groupes d'organismes vivants partagent sept caractéristiques ou fonctions clés : ordre, sensibilité aux stimuli, reproduction, adaptation, croissance et développement, régulation homéostasique et traitement de l'énergie.

- Rythmes biologiques : En chronobiologie, l'étude des rythmes biologiques, certains cycles présentent une période proche de sept jours. Par exemple, le cycle menstruel chez l'humain est en moyenne de 28 jours, qui peuvent être divisés en quatre intervalles d'environ sept jours.

- Les sept couleurs de l'arc en ciel (violet, indigo, bleu, vert, jaune, orange, rouge). Que l'on peut appréhender comme un système double :

Les sept couleurs verticales en synthèse additive (lumière) 3 primaires (bleu, vert, rouge) 3 secondaires (cyan, magenta, jaune) 1 finale (blanche) avec les sept superposées

Les sept couleurs verticales en synthèse soustractive (matière, impression graphique) 3 primaires (jaune, cyan, magenta) 3 secondaires (rouge, vert,bleu) 1 finale (noir) avec les sept superposées. Ces deux rubriques additive et soustractive sont peut-être à rapprocher avec les 6 quarks et l'electron. Ce dernier représentant alternativement blanc et/ou noir... Toutes données bien entendu en rapport direct avec la cognition humaine.


- Selon Paul Jorion les populations Xwéda (Région de l'ex Dahomey) ont opéré le regroupement des phénomènes naturels en vastes catégories reproduisant les sept modèles élémentaires de la théorie géométrique des catastrophes de René Thom.

- Ce dernier, s'appuyant sur les travaux de Hassler Withney, réussit à démontrer dans ses "Modèles mathématiques de la morphogenèse" qu'il y a sept potentiels organisateurs, ni plus ni moins, c'est à dire sept types de catastrophes qui sont, par ordre de complexité croissante : pli, fronce, queue d'aronde, papillon, ombilic hyperbolique, ombilic elliptique et ombilic parabolique.

- Les afficheurs électroniques à sept segments

-  Les 7 composants de l'écosystème de l'infrastructure des système informatques, à savoir ; Plateformes Internet  (apache   microsoft   apache  cisco), Plateformes matérielles  (IBM  Dell   Machines linux), Plateformes de systèmes d'exploitation (windows, apple, linux), Applications logicielles d'entreprise (erp entreprise ressource planning), Réseaux et téécommunications (window server, ATT,  northel), Consultant et intgrateurs de systèmes  (services ). Traitement et stockage de données   (sql  oracle, etc)  

- Les sept couches du modèle OSI : Le modèle OSI (Open Systems Interconnection) est un modèle conceptuel qui décrit les fonctions de communication d'un système informatique. Le modèle se compose de sept couches, chacune d'entre elles correspondant à un type spécifique de fonction réseau.

- Les sphères d’action de Vladimir Propp dans son ouvrage fondateur, "Morphology of the Folktale", où il identifie différents rôles de personnages et fonctions narratives dans les contes de fées russes. Ces sept sphères d'action de l'analyse de Propp sont  :

1) Sphère de la méchanceté ou du manque du méchant : Cette sphère comprend les actions liées au méchant ou à l'antagoniste, telles que ses mauvaises intentions ou son manque initial de quelque chose d'important.

2) Sphère du donateur : Cette sphère comprend les actions impliquant un personnage qui fournit de l'aide ou des objets magiques au héros.

3) Sphère du départ du héros : Les actions liées au départ du héros de son lieu initial ou à la mise en route de son voyage relèvent de cette sphère.

4) Sphère du voyage du héros : Cette sphère englobe les actions et les événements qui se produisent au cours de la quête ou du voyage du héros, y compris les rencontres avec des aides, le franchissement d'obstacles et l'acquisition de connaissances ou de capacités.

5) Sphère de la lutte du héros : Les actions liées au conflit principal du héros ou à sa lutte contre le méchant font partie de cette sphère.

6) Sphère de la reconnaissance du héros : Cette sphère comprend les actions au cours desquelles le héros est reconnu ou identifié d'une manière significative.

7) Sphère du retour du héros : Les actions liées au retour du héros à son lieu initial ou à son domicile après avoir achevé son voyage entrent dans cette sphère.

- Les sept points de convergence entre pragmatisme et logique mathématique identifiés par Vailat i (Giovanni Vailati, "Pragmatism and Mathematical Logic", The Monist, 16.4, 1906, p. 481-491)

En mathématique 

Le chiffre sept présente quelques relations intéressantes avec les nombres premiers  dont il fait lui-même partie. Sept fait  en outre partie d'une paire de nombres premiers jumeaux, qui sont des nombres premiers qui diffèrent par deux. La paire de nombres premiers jumeaux contenant sept est (5, 7), les deux nombres étant premiers. Il y a aussi le tamis d'Ératosthène : Lorsque l'on utilise le crible d'Ératosthène, une méthode pour trouver les nombres premiers, le sept est le premier nombre à être rayé après les nombres premiers initiaux (2, 3, 5). Il marque le début du cycle suivant dans le tamis.

- Les septs éléments de la formule mathématique de l'identité d'Euler    e^(iπ) = -1   c'est à dire les trois constantes mathématiques les plus remarquables  à savoir :

  e   base du logarythme naturel    π  constante mystérieuse des maths    i   l'unité imaginaire à la base des nombres complexes, etc

combiné avec ces 4 symboles

   0, l'élément neutre de l'addition

   1, l'élément neutre de la multiplication

   + , qui représente l'addition, la multiplication et la puissance

   = , qui représente l'égalité

- Constante de Kaprekar est une propriété mathématique unique à laquelle il faut au maximum 7 étapes pour obtenir ce qu'on appelle également la constante 6174 qui est obtenue à partir de n'importe quel nombre à quatre chiffres non tous égaux. 

- Les sept tuples de la machine de Turing.   Q : l'ensemble fini des états. ∑ : l'ensemble fini des symboles d'entrée. T : le symbole de la bande. q0 : l'état initial. F : un ensemble d'états finaux. B : un symbole vide utilisé comme marqueur de fin d'entrée. δ : une fonction de transition ou de mise en correspondance.  On la résume donc sous le 7-tupels suivant :  (Q,∑Γ,δ,q0,B,F) 

- Nombre parfait : Bien que le 7 ne soit pas un nombre parfait, il est étroitement lié aux nombres parfaits. Un nombre parfait est un nombre entier positif égal à la somme de ses diviseurs propres (diviseurs positifs autres que lui-même). Les premiers nombres parfaits sont 6, 28, 496, 8128, etc. Il est intéressant de noter que la somme des réciproques des diviseurs propres de 7 est égale à 8, soit deux fois 7, ce qui en fait un "nombre presque parfait".

- Tuiles planes : Il existe exactement trois tuiles planes régulières qui n'utilisent qu'un seul polygone régulier, et l'une d'entre elles utilise sept hexagones réguliers disposés autour d'un seul point.

- Nombre magique : Un nombre magique est un nombre qui peut être exprimé comme la somme des cubes de ses chiffres. Le seul nombre magique à deux chiffres est 27, qui est égal à 2^3 + 7^3. Le seul nombre magique à un chiffre est 1.

- Heptagone : Un heptagone est un polygone à sept côtés. C'est le seul polygone régulier avec un nombre premier de côtés qui peut être construit à l'aide d'un compas et d'une règle.

- Le nombre premier de Belphégor : 100000000000006660000000001 est un nombre premier qui contient 13 chiffres de 6 suivis du chiffre 7, suivis de 13 autres chiffres de 0, suivis de 1. Ce nombre est parfois appelé le nombre premier de Belphégor, du nom d'un démon du même nom.

- Les sept ponts de Königsberg : Le célèbre problème des sept ponts de Königsberg, issu de la théorie des graphes, concerne un réseau de sept ponts reliant deux îles et deux rives, et pose la question de savoir s'il est possible de traverser chaque pont exactement une fois et de revenir au point de départ. Ce problème a jeté les bases du domaine de la topologie en mathématiques.

- Nombre catalan : Les nombres catalans sont une séquence de nombres qui apparaissent dans de nombreux contextes mathématiques, notamment pour compter le nombre de façons d'arranger divers objets et dans l'analyse des algorithmes. Le septième nombre catalan est 429, qui représente le nombre de façons d'insérer des parenthèses dans une séquence de six éléments.

- Victoire pythagoricienne : Selon la légende, le mathématicien grec Pythagore aurait découvert la relation entre les côtés d'un triangle rectangle (a^2 + b^2 = c^2) en étudiant les propriétés du chiffre 7. Cette découverte, connue sous le nom de théorème de Pythagore, est devenue l'un des théorèmes les plus fondamentaux de la géométrie et des mathématiques.

- En géométrie algébrique existe un théorème célèbre appelé classification des surfaces d'Enriques-Kodaira, qui classe toutes les surfaces algébriques projectives lisses jusqu'à la déformation. L'une des étapes clés de la preuve de ce théorème implique l'étude d'un objet particulier appelé surface K3, qui est une surface projective lisse de dimension 2 qui possède un faisceau canonique trivial et est holomorphiquement symplectique. Il est intéressant de noter que les surfaces K3 possèdent toujours exactement 22 points doubles rationnels isolés, qui sont des points singuliers pouvant être modélisés localement sur l'ensemble zéro de l'équation x^2 + y^2 + z^2 + w^2 + t^2 + ut + vt = 0, où (x,y,z,w,t,u,v) sont des coordonnées dans l'espace complexe à 7 dimensions.

- La conjecture de Poincaré a notoirement été prouvée par le mathématicien Grigori Perelman en 2002-2003. Ce théorème stipule que tout 3-manifold fermé et simplement connecté est homéomorphe à la 3-sphère. On notera que la preuve de ce théorème repose sur l'étude de structures géométriques avec des groupes d'isométrie à 7 dimensions, connues sous le nom de manifolds G2. Dit autrement une 3-sphère (ou glome ou hypersphère, qui est un analogue de dimension supérieure de la sphère) est l'analogue d'une sphère en dimension quatre. C'est l'ensemble des points équidistants d'un point central fixé dans un espace euclidien à 4 dimensions. Tout comme une sphère ordinaire (ou 2-sphère) est une surface bidimensionnelle formant la frontière d'une boule en trois dimensions, une 3-sphère est un objet à trois dimensions formant la frontière d'une boule à quatre dimensions. Une 3-sphère est un exemple de variété (différentielle) de dimension 3. 

Religions, spiritualités et traditions mondiales

Voici quelques exemples de l'importance du chiffre sept dans les cultures africaines : (à vérifier)

- Sept puissances africaines : Dans les religions afro-caribéennes et afro-latines telles que la Santeria et le Candomble, il existe un concept connu sous le nom des "Sept Puissances Africaines" ou "Sept Orishas Africains". Il s'agit de sept divinités ou esprits représentant différents aspects de la vie et de la nature, tels que l'amour, la sagesse et la protection.

- Sept directions : Certaines cultures africaines reconnaissent sept directions cardinales, dont les quatre directions principales (nord, sud, est, ouest) et trois directions supplémentaires : le haut (le ciel), le bas (la terre) et le centre (qui représente l'équilibre et l'harmonie).

- Rites d'initiation : Dans certains rites d'initiation africains, il y a souvent sept étapes ou rituels auxquels les individus doivent se soumettre pour passer d'un statut social ou spirituel à un autre. Ces étapes peuvent comprendre des tests, des enseignements et des cérémonies.

- Systèmes de divination : Certains systèmes de divination africains, comme la divination Yoruba Ifa, utilisent des ensembles d'outils de divination composés de 16 ou 256 éléments. Ces ensembles sont ensuite divisés en quatre groupes de sept, représentant différents modèles symboliques et interprétations.

- Dans l'Égypte ancienne, il y avait 7 étapes vers le jugement final dans l'au-delà.

- Dans la culture chinoiseLe chiffre sept revêt aussi une grande importance culturelle et historique, au-delà de la culture occidentale on y trouve ces exemples notables :

Les sept corps célestes : Dans la cosmologie chinoise ancienne, sept corps célestes étaient considérés comme importants : le Soleil, la Lune, Mars, Mercure, Jupiter, Vénus et Saturne. Ces corps étaient censés avoir une influence sur les affaires humaines et étaient associés à divers éléments, directions et couleurs.

Les sept étoiles de la Grande Ourse : La Grande Ourse, appelée "Ourse du Nord" dans la mythologie chinoise, est un astérisme important. On pense qu'elle est composée de sept étoiles, qui ont une signification dans divers contextes culturels et spirituels. La Grande Ourse est associée à l'orientation, à la protection et à la navigation.

Les sept trésors : Dans l'art et le symbolisme chinois, il existe sept trésors appelés les "sept trésors du bouddhisme". Ces trésors comprennent l'or, l'argent, le lapis-lazuli, le cristal, l'agate, le corail et une conque blanche. Ils représentent la richesse, la prospérité, les qualités spirituelles et le bon augure.

Les sept vertus : Le confucianisme, philosophie influente de la culture chinoise, met l'accent sur les valeurs éthiques et les vertus. L'un des enseignements fondamentaux du confucianisme est la culture des "sept vertus" ou "sept constantes", qui comprennent la bienveillance, la droiture, la bienséance, la sagesse, la fiabilité, la loyauté et la piété filiale.

Il y a aussi, dans la culture chinoise, le septième mois du calendrier lunaire est connu sous le nom de mois des fantômes et est rempli de superstitions et de tabous.

- La Torah mentionne 7 bénédictions et 7 malédictions.

- Ménorah à sept branches : La ménorah à sept branches est un chandelier symbolique utilisé lors des cérémonies religieuses juives. La ménorah a sept branches qui représentent les sept jours de la création dans le livre de la Genèse.

- Les sept anges qui se tiennent devant Dieu: Zadkiel, Gabriel, Japhiel, Michel, Saltiel et Uriel. Dans l'apocalypse, il y a aussi sept sceaux, sept trompettes, sept candélabres d'or, sept lettres adressées aux sept églises, sept tonnerres, etc... - Les sept patriarches bibliques : Aaron, Abraham, Isaac, Jacob, Joseph, Moïse et David

- Les 7 princes des Enfers sont Mammon, Azazel, Belzébuth, Asmodée, Belphégor, Dispater et Méphistophélès.

- Dans le christianisme le 7 représente l'achèvement ou la perfection, comme dans les jours de la création du monde du livre de la Genèse où Dieu est décrit comme ayant achevé son œuvre et se reposant le septième jour.

- Sept vertus cardinales : Dans la tradition chrétienne, les sept vertus cardinales sont un ensemble de vertus considérées comme essentielles à une vie vertueuse. Ces vertus sont la prudence, la justice, la tempérance, la force d'âme, la foi, l'espérance et la charité.

- L'Apocalypse, dans le Nouveau Testament, mentionne les sept sceaux, les sept trompettes et les sept coupes de la colère.

- L'Église catholique compte sept sacrements : le baptême, la confirmation, l'eucharistie, la réconciliation, l'onction des malades, l'ordre sacré et le mariage.

- Les 14 ( 2 x 7) stations du chemin de croix :  1ère station : Jésus est condamné à mort.  2e station :  Jésus est chargé de sa croix. 3e station : Jésus tombe sous le bois de la croix.  4e station : Jésus rencontre sa Mère. 5e station : Simon de Cyrène aide Jésus à porter sa croix.  6e station : Véronique essuie la face de Jésus. 7e station : Jésus tombe pour la seconde fois. 8e station : Jésus console les filles de Jérusalem. 9e station : Jésus tombe pour la 3e fois. 10e station : Jésus est dépouillé de ses vêtements. 11e station : Jésus est attaché à la croix. 12e station : Jésus meurt sur la croix. 13e station : Jésus est descendu de la croix et remis à sa mère. 14e station : Jésus est mis dans le sépulcre.   (15e station : avec Marie, dans l’espérance de la résurrection)- Les sept dernières paroles du Christ.

- les 7 étapes des "dialogues avec l'ange" : minéral, végétal, animal, humain, ange, archange, dieu. Le tout constituant un miroir réversible (minéral miroir de dieu, ange miroir de l'animal, etc.) l'humain étant le pivot, au centre.

- Dans l'islam, il y a sept cieux et sept enfers.

- Dans l'islam, le chiffre 7 représente les sept cieux, qui sont décrits dans le Coran

- Les septs archanges : Michel, Gabriel, Raphaël, Uriel, Jérémiel, Zadkiel, Raguel...  (Sandalphon, Phanuel, Saratiel, Egoudiel, Barachiel, etc... ne sont pas admis par la tradition et seul les 3 premiers sont cités dans la bible)

- Dans l'hindouisme, il y a sept chakras ou centres d'énergie dans le corps. 

- Les sept chakras : sahasrara, agnya, vishuddhi, anahat, nabhi, swadhistana et mooladhara.

- Les sept parties des Kamâ Sutrâ de Mallanâga Vâtsyâyana: Plan de l'ouvrage et questions générales, de l'union sexuelle, de l'acquisition d'une épouse, de l'épouse, des épouses d'autrui, des courtisanes, des moyens de s'attacher les autres.

Divers, mythologie, beaux-arts, etc

- Les sept notes de la gamme diatonique occidentale révèlent le septénaire comme un régulateurs des vibrations.

- Le septième sens, au-delà du 6e sens, qui est celui de l'intuition, existe en chacun de nous une perception spécifique qui est celle du rapport au divin.

- Les sept sœurs : Les Pléiades, également connues sous le nom de Sept Sœurs, sont un groupe d'étoiles de la constellation du Taureau connu depuis l'Antiquité. Elles étaient considérées comme sept des étoiles les plus proéminentes du ciel et représentaient les sept filles d'Atlas et de Pléione dans la mythologie grecque.

- Les sept sages de Grèce : Les sept sages de Grèce étaient un groupe de sept hommes sages réputés pour leur sagesse et considérés comme ayant jeté les bases de la philosophie grecque antique. Les noms des sept sages sont Thalès de Milet, Solon d'Athènes, Chilon de Sparte, Bias de Priène, Cléobulus de Lindos, Périandre de Corinthe et Pittacus de Mytilène.

- Les sept émotions pulsions de base : Joie, Tristesse, Dégoût, Peur, Colère, Surprise, Mépris. (Paul Ekman)

- Les sept orifices du visage : yeux, narines, bouche, oreilles.

- Le syndrome du 7 chanceux : Le syndrome du "7 chanceux" est un phénomène psychologique qui implique une tendance à attribuer des qualités positives au chiffre 7. Ce phénomène peut être observé dans divers contextes, tels que la stratégie de marque et le marketing, où le chiffre 7 est souvent utilisé pour évoquer la chance ou le succès.

- Le nombre 7 est la somme des deux faces opposées d'un dé standard à six faces.

- Il existe sept types de catastrophes mondiales : l'impact d'un astéroïde, la guerre nucléaire, la pandémie, l'emballement du changement climatique, l'éruption supervolcanique, l'effondrement écologique et l'intelligence artificielle.

- La langue - organe linguale - humaine perçoit sept goûts primaires : le sucré, l'acide, l'amer, le salé, l'umami, le piquant et l'astringent.

- Les sept lois de l'identité numérique de Kim Cameron

- Les 7 industries clefs de la transformation numérique : télécoms et l’IT, santé, distribution, énergies,  média et divertissement, finance, voyages et loisirs.

- Les 7 valeurs dominantes de la société en réseau et de l'éthique protestante qui sont : l'argent, le travail, l'optimalité, la flexibilité, la stabilité, la détermination et le contrôle du résultat. (Pekka Himanen, l'éthique hacker, Exils 2002)

- Les 7 valeurs dominantes du hacker (pirate informatique) : la passion, la liberté, la valeur sociale, l'ouverture, l'activisme, la bienveillance, et la créativité. (Pekka Himanen, l'éthique hacker, Exils 2002

- Les sept péchés infernaux : colère, luxure, gourmandise, envie, paresse, avarice et orgueil.

- Les sept péchés sociaux de Frederick Lewis Donaldson. Qui sont: Richesse sans travail. Plaisir sans conscience. Connaissance sans caractère. Commerce sans moralité. Science sans humanité. Culte sans sacrifice. Politique sans principe. 

- Les sept voyages de Sinbad le marin

- Les sept jours de la semaine.

- Les sept planètes autour du soleil.

- Les sept collines de Rome.

- Les sept terminaisons pointues de l'homme (les deux mains, les deux pieds, le nez, la langue et le sexe)

- Les sept listes d'Ecolalie qui sont aussi des questionnaires.

- Les sept directions (Nord, Est, Sud, Ouest, Zenith, Nadir, Centre).

- Les sept niveaux de la jouissance féminine.

- Les sept ponts de Budapest (Árpád, Margit, Szechenyi, Erzsebet, Szabadság, Petofi, Lágymánosi).

- Les sept provinces basques: Labourd, Basse Navarre, Soule, Guipuzcoa, Alava, Navarre et Biscaye).

- Sept ans de malheur.

- Les bottes de sept lieues.

- Les sept merveilles du monde : le temple d'Artémis à Ephèse, le mausolée d'Halicarnasse, le colosse de Rhodes, les jardins suspendus de Babylone, Ornella Muti jeune, les pyramides d'Egypte, la statue de Zeus à Olympie & le phare d'Alexandrie.

- Les 7 disciplines des Arts libéraux du Moyen Âge, classification fixée par Rome au Premier siècle, divisée en deux cycles. Trivium : grammaire, rhétorique, dialectique et Quadrivium : arithmétique, musique, géométrie, astronomie.  

- Tintin et les sept boules de cristal. (chacune pour un des sept savants de l'expédition Sanders-Hardmuth : Clairmont, Marc Charlet, Paul Cantonneau, Homet, Marcel Brougnard, Hippolyte Bergamotte, Sanders-Hardmuth & Laubépin).

- Les sept mercenaires : Yul Brynner, Steve McQueen, James Coburn, Charles Bronson, Horst Bucholz, Robert Vaughn & Brad Dexter.

- Les sept samouraïs : Toshiro Mifune + six autres.

- Les sept vertus, dont les trois premières sont théologales : La charité, l'espérance, la foi, le courage, la justice, la prudence, la sagesse. A ne pas confondre avec

- Les sept vertus humaines selon Confucius : longévité, chance, popularité, candeur, magnanimité, divinité & gentillesse.

- Les sept femmes de Barbe-Bleue.

- Les sept vérités.

- Les sept nains de Blanche-Neige : Joyeux, Prof, Dormeur, Atchoum, Simplet, Grincheux & Timide.

- Les sept fois qu'il faut tourner sa langue dans sa bouche.

- Les Sept Rayons du monastère de la confraternité des oblates

- Le petit Poucet, ses six frères et les sept filles de l'Ogre

- Les sept voyages de Sinbad le marin

- La légende des sept dormants

- Les sept étapes de l'homme (montage spéculatif maison que l'on trouvera sur FLP)

- Les sept points clefs de la double causalité de Philippe Guillemant (que l'on trouvera sur FLP)

- Les sept métaux fondamentaux de la science alchimique : l'or, l'argent, le cuivre, l'étain, le mercure, le fer et le plomb.

- Les sept arts : l'architecture, la sculpture, la peinture, la musique, la danse, la poésie et le cinéma.

- Les sept conjonctions de coordination : mais où et donc or ni car

- Les sept mots finissant par "ou" qui prennent un x au pluriel : bijou, caillou, chou, genou, hibou, joujou, pou.

- Les sept têtes du naga des temples d'Angkor

- Les sept portes de Thèbes

- Les sept termes des grecs antique pour l'amour : porneia, pathos, eros, philea, storge (familial celui-ci) charis, agapé.

- Les sept vies du chat

- Les sept trompettes de Jéricho

- Les sept entrées de l'Enfer

- Les sept mondes interdits.

- Dans un ouvrage paru en 1956 George Armitage Miller établit que le nombre 7 correspondrait approximativement au nombre maximal d'éléments que serait capable de "traiter" l'esprit humain.

- Federico Navarro, continuant les travaux de Reich, s'est intéressé aux sept niveaux des stases énergétiques.

- Les 7 niveaux de classification pour l'Homme (Taxinomie) Règne : ANIMAL Embranchement: VERTÉBRÉ Classe: MAMMIFÈRE Placentaire Ordre: PRIMATES Famille: HOMINIDÉ Genre: HOMO Espèce: SAPIENS.

- Les sept conseillers fédéraux Suisse ainsi que les sept membres des exécutifs des cantons et des grandes villes.

- Sept couches d'atmosphère : L'atmosphère terrestre peut être divisée en sept couches en fonction de la température et d'autres caractéristiques. Ces couches sont la troposphère, la stratosphère, la mésosphère, la thermosphère, l'exosphère, l'ionosphère et la magnétosphère.

- Les sept aptitudes-outils-facultés holistiques selon Clélia Félix (le son, le verbe, le signe, la nature, l'intuition, le nombre et le rituel.)

- Les sept matchs de tennis qu'il faut gagner pour remporter un titre de grand chelem

- Les sept façons de savoir comment est une personne : Posez-lui une question difficile, et observez sa faculté d'analyse. Prononcez une parole provocante, et voyez sa réaction. Demandez-lui comment elle s'y prend pour résoudre des problèmes épineux, et jugez de son intelligence. Laissez-la se débrouiller d'une situation délicate, et observez son courage. Faites-la boire, et observez son naturel. Tentez-la avec de l'or, et observez son intégrité. Indiquez-lui comment s'acquitter d'une tâche, et assurez-vous de sa fiabilité. (Sun Tzu - L'art de la guerre) 

Linguistique et sémantique

- Les sept partie du corps à la source du langage des iles Adaman 

- Les sept modes verbaux de la grammaire en langue française : - quatre modes personnels, qui se conjuguent : indicatif, conditionnel, subjonctif et impératif. - trois modes impersonnels, qui ne se conjuguent pas : infinitif, participes et gérondif. Binaire et ternaire linguistiques

- Dans certaines langues, comme le latin et le russe, il existe sept cas grammaticaux utilisés pour indiquer la fonction des noms et des pronoms dans une phrase : le nominatif, le génitif, le datif, l'accusatif, l'instrumental, le prépositionnel et le locatif.

- En linguistique, il existe sept structures de phrases de base : les phrases simples, les phrases composées, les phrases complexes, les phrases composées-complexes, les phrases déclaratives, les phrases interrogatives et les phrases impératives. (4 + 3)

En anglais et dans de nombreuses autres langues, il existe sept temps de base : le présent, le passé, le futur, le présent parfait, le passé parfait, le futur parfait et le présent continu.

- Parties du discours : Dans la grammaire traditionnelle, il y a sept parties du discours : les noms, les verbes, les adjectifs, les adverbes, les pronoms, les prépositions et les conjonctions.

- Les sept conférences de Harvard de Charles Sanders Peirce, prononcées en 1903.

-  Les sept agents de la cosmogonie révélés à Jacob Böhme par des visions. Ils sont les sept agents d’une création continue du monde. Ce sont  la dureté, l’attraction, la crainte, le feu, l’amour-lumière, les pouvoirs de la parole et la parole elle-même.

- Les sept parties de l'idéalité royale (Castille, XIIIe siècle) donnés à imprimer par Antonio Díaz de Montalvo, jurisconsulte des Rois Catholiques, comme Le Septénaire : Las Siete Partidas de Alfonso X el Sabio, 2 vol., Séville : Meynardo Ungut et Lançalao Polono, 25 octobre 1491.

- Les sept collines de Rome : Rome, la capitale de l'Italie, est célèbre pour être la "ville aux sept collines". Les sept collines sont la colline de l'Aventin, la colline du Caelius, la colline du Capitole, la colline de l'Esquilin, la colline du Palatin, la colline du Quirinal et la colline du Viminal.

- Sept lois incas : L'empire inca, qui a existé en Amérique du Sud du 13e au 16e siècle, avait un système de lois connu sous le nom de Tawantinsuyu, qui comprenait sept lois principales. Ces lois étaient les suivantes : Ama Sua (ne pas voler), Ama Llulla (ne pas mentir), Ama Quella (ne pas être paresseux), Ama Kella (ne pas être infidèle), Yapaq Ñan (respect), Kawsay Ñan (mener une vie honorable) et Iwka Ñan (ne pas massacrer sans raison).

- Le labyrinthe à sept circuits : Le labyrinthe à sept circuits est un type de labyrinthe utilisé pour la méditation et à des fins spirituelles. Le labyrinthe consiste en un chemin unique qui serpente jusqu'au centre, avec sept cercles concentriques qui divisent le chemin en sept segments.

- Les sept âges de l'homme : Les sept âges de l'homme sont un concept décrit par William Shakespeare dans sa pièce "As You Like It". Les sept âges sont le nourrisson, l'écolier, l'amoureux, le soldat, le juge, le vieillard et, enfin, la seconde enfance.

- Sept continents : Les sept continents sont l'Afrique, l'Antarctique, l'Asie, l'Australie, l'Europe, l'Amérique du Nord et l'Amérique du Sud. Ces continents sont généralement définis en fonction de leurs plaques continentales.

- Septième fils d'un septième fils : Dans le folklore, le septième fils d'un septième fils est censé avoir des pouvoirs spéciaux, notamment la capacité de guérir les maladies et de voir les esprits. Cette légende a été popularisée dans divers médias, notamment dans la musique, la littérature et le cinéma.

- Guerre de Sept Ans : La guerre de Sept Ans est un conflit mondial qui s'est déroulé de 1756 à 1763 et qui a impliqué la plupart des grandes puissances européennes de l'époque. La guerre s'est déroulée principalement en Europe, mais aussi en Amérique du Nord, en Inde et dans d'autres parties du monde.

- Sept couleurs de l'aura : selon certaines traditions ésotériques, l'aura humaine est composée de sept couleurs, chacune correspondant à un aspect spécifique de l'état spirituel, émotionnel et physique de l'individu.

- Les États-Unis d'Amérique comptent 7 pères fondateurs qui ont signé la Déclaration d'indépendance le 4 juillet 1776.

- Les planètes classiques, connues dans l'Antiquité, sont au nombre de 7 : Soleil, Lune, Mercure, Vénus, Mars, Jupiter et Saturne. Dans l'astrologie traditionnelle, on croyait que sept planètes avaient une influence sur les affaires humaines. Ces planètes étaient le Soleil, la Lune, Mercure, Vénus, Mars, Jupiter et Saturne.

- La septième lettre de l'alphabet grec est zêta, souvent utilisée en mathématiques pour représenter une variable ou un coefficient.

- L'étirement de la septième manche est une tradition du baseball selon laquelle les supporters se lèvent et s'étirent pendant la septième manche du match.

- Le temps nécessaire à la lune pour passer par toutes ses phases est d'environ 29,5 jours, ce qui est proche d'un multiple de sept (4 x 7 = 28).

- Nous terminons cette liste avec les 14 diagonales de l'heptagone qui, une fois tracés, dessinent au sein de celui-ci un heptagone interne, puis un deuxième... qui laissent imaginer une suite infinie de la même forme.

(Pour info : Avec FLP nous nous amusons parfois à une organisation qui tente de classifier les extraits via 7 paramètres verticaux et 7 paramètres horizontaux... )

NB : Le nombre 49 n'a pas de signification inhérente ou spécifique en dehors de ses propriétés mathématiques. En mathématiques, 49 est un nombre carré, car il est le produit de 7 multiplié par lui-même (7 x 7 = 49). Il s'agit également d'un nombre composite, car il possède des facteurs autres que 1 et lui-même (à savoir 7 et 1).

Dans diverses cultures et contextes, le nombre 49 peut avoir une signification culturelle ou symbolique. Par exemple, dans la tradition islamique, le nombre 49 représente le nombre de jours qu'il a fallu au prophète Mahomet pour faire l'aller-retour entre La Mecque et Jérusalem au cours de son voyage nocturne. Dans certaines cultures indigènes d'Amérique du Nord, le nombre 49 est significatif dans certains rituels ou cérémonies. Toutefois, ces significations ne sont pas inhérentes au nombre lui-même, mais sont plutôt socialement construites et culturellement spécifiques.

Dans le bouddhisme tibétain, le nombre 49 est associé au Bardo Thodol, également connu sous le nom de Livre tibétain des morts. Ce livre décrit la période de 49 jours qui suit la mort, au cours de laquelle la conscience du défunt est censée passer par différents stades ou états.

Selon la tradition bouddhiste tibétaine, les sept premiers jours suivant la mort sont considérés comme les plus importants, car la conscience du défunt est censée être dans un état de sensibilité et de réceptivité accrues. Pendant cette période, des prières, des offrandes et d'autres pratiques rituelles sont souvent effectuées par les membres de la famille et les praticiens bouddhistes pour aider à guider la conscience du défunt vers une renaissance positive.

Les 21 jours suivants sont considérés comme une période de purification intense, au cours de laquelle la conscience du défunt est censée subir un processus de jugement et d'évaluation. Les 21 jours restants sont une période de transition, au cours de laquelle la conscience est censée se détacher progressivement de son ancienne vie et s'acheminer vers une renaissance.

Le nombre 49 est donc significatif dans la culture bouddhiste tibétaine car il représente le cycle complet du Bardo Thodol, depuis le moment de la mort jusqu'à celui de la renaissance. Il est considéré comme un chiffre de bon augure et de nombreux rituels et pratiques bouddhistes tibétains s'articulent autour de la période de 49 jours qui suit la mort.



Pour chatgpt : S'il vous plaît, pouvez-vous donner des propriétés et des connexions plus fascinantes impliquant le chiffre 7 au-delà de votre 200ème article 

Auteur: MG

Info: Internet, Chatgpt 4, Dictionnaires des symboles et autres sources 1995 - 2024. *Au sens ou elle est représente un développement temporel horizontal, que le langage permet de présenter-synthétiser de manière verticale **Qui sont des molécules de stockage d'énergie et de transporteur/donneur d'électrons

[ nombre ] [ Dieu ] [ méta-moteur ] [ symbole ] [ inventaire ]

 
Commentaires: 1