Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 372
Temps de recherche: 0.0597s

solipsismes confrontés

Bonsoir tout le monde,

Question, délicate ou ridiculement évidente, c'est selon, de ce qu'on peut qualifier d'interprétation subjective et personnelle versus ce qu'on pourrait identifier comme "objectif" dans les différents plans dans lesquels on voyage astralement.. 

Pour prendre un exemple enfonçons une porte ouverte liée à nos sens basiques, la synesthésie est un phénomène neurologique qui fait qu'un sens est associé - ou fusionné - systématiquement à un autre, pour faire court. J'en suis atteinte, et dans mon cas c'est les sons qui sont associés à des formes en couleur et en texture, avec une charge émotionnelle. Par exemple, le son du piano a pour moi une forme blanche laiteuse, opaque, concave, avec des bords plus ou moins colorés, alors que le violoncelle est rouge foncé mais lumineux, convexe, trace des lignes en s'approchant dans l'espace, etc.

Les études qui ont été faites là-dessus montrent que oh surprise, si c'est systématique et stable pour chacun (le piano se présente toujours blanc opaque pour moi)  c'est aussi complètement différent en fonction des personnes - pour quelqu'un d'autre qui présente ces caractéristiques neurologiques, le piano sera toujours vert+ autres attributs constants pour elle. Et bien sûr ce phénomène est présent à des degrés plus ou moins élevés, allant de l'inaperçu a l'handicap, finalement chez pas mal de gens.

Ca a déjà été dit et répété dans le groupe, mais j'ai aussi lu pas mal de posts/commentaires qui semblent difficilement prendre ce facteur en compte, en traitant des autres plans de conscience et des diverses expériences dont on parle ici.

J'ai aussi pu expérimenter et vérifié une ou deux fois que dans les autres plans de conscience, et au niveau énergétique, la même chose s'appliquait : sans en faire une généralité, on était 2 à percevoir un même phénomène, mais de façon très différente.

Et pourtant, il y a aussi des constantes qui semblent ressortir, le plan éthérique étant décrit comme bleu à la quasi unanimité par exemple... ou les "cavernes brunes du bas-astral ou tout est lent et pèse un tonne" (bon ça c'est peut-être moins consensuel, mais vu et vécu avec, à peu de choses près, la même description).

Du coup les amis... Comment mettez-vous des repères là-dedans ? En général, et dans les fils de discussion du groupe ? Est-ce important pour vous ? Ou à valeur nulle ? Je me suis bien fait ma petite idée, mais je suis assez curieuse d'autres perspectives... 

J'en profite aussi pour remercier chaleureusement Marc Auburn et les contributeurs de ce groupe, qui défrichent avec brio ces terra incognita...

Loïc Dubuckingham@ Auteur1. Moi je dirais que c'est simplement humain de vouloir que tout soit "repérable" et contrôler. Vous avez de la chance de pouvoir effectuer ces voyages là alors prenez la chance aussi de lâcher prise en m'étant un peu de côté l'obsession humaine de vouloir tout expliquer pour mieux comprendre. Ce n'est pas un reproche que je vous fait la mais une suggestion.

Auteur 1 @ Loïc Dubuckingham. Bonjour, je ne crois pas chercher à tout repérer et contrôler, et surtout pas dans ce genre de sujet... lâcher prise, bien sûr, mais de mon côté ça ne m’empêche pas de temps à autres d’essayer de comprendre ce que je vis. Jusqu’ici, ça ne m’a pas tellement joué de mauvais tours ??

Callirhoé Déicoon @ Loïc Dubuckingham. Je pense que la curiosité et l'envie de comprendre sont plutôt des moteurs sains. De + les divers témoignages et communications avec des entités laissent entendre que ce moteur est universel en tant que base de l'évolution des consciences, et non juste humain (désolée de déterrer ce fil 1 an après)

Marc Auburn@. Oui, la synesthésie est l'état naturel du corps de lumière. Toute perception suscite une correspondance avec toutes les autres perceptions, et pourtant en même temps on fait parfaitement le distinguo.

Auteur 1@ Marc Auburn. Oui, la distinction est claire. Ce que j’en retenais surtout, c’était le côté subjectif et propre à chacun, et j’avais tendance à partir du principe que si même un son est perçu différemment selon la personne, c’était logiquement pareil puissance X dans d’autres dimensions... mais, bon... je me prends peut être un peu la tête pas dans le bon sens ??

Callirhoé Déicoon @ Auteur 1. Au contraire, vous ne vous prenez pas la tête pour rien, c'est justement une question centrale… et éminemment complexe. Je ne sais pas mais on dirait que c'est comme s'il y avait une réalité archétypale dans l'astral, c'est-à-dire que les gens y voient la "même chose" (le même concept) mais avec des apparences qui varient…

Denis Cottard. Mon approche des réalités énergétiques est avant tout une approche par le sens, par l’intensité de signification, car curieusement, bien souvent, la sensation pure n’est pas centrale. Il y a des cas où elle l’est, quand il s’agit de situations fortement reliées au plan physique et où il faut des éléments qui puissent nous faire des repères, mais sinon je sais que c’est moi qui met le truc en image parce que c’est plus simple pour se souvenir et garder, et je reste d’ailleurs conscient de le faire. Donc, je conçois que chacun puisse "imager" à sa façon car chacun a sa sensibilité, certains sont plus visuels, d’autres tactiles, etc... et qu’il y a un symbolisme de représentation qui peut être très personnel. L’important étant que çà fasse sens pour celle ou celui qui fait l’expérience.

Donc je ne me fixe pas trop sur la forme des expériences (même si pour certains, c’est encore celle-ci qui est l’aspect le plus fascinant) car dès lors qu’on quitte la réalité matérielle, on évolue dans une réalité qui n’a aucune raison d’être particulièrement objective, et qu’à partir de certains plans d’existence, il n’y a tout simplement plus de forme ou alors, il y a quelque chose mais qui ne témoigne en rien de ce que nos sens pourrait témoigner. C’est en cela que j’affectionne particulièrement les sorties en tandem car au retour, la reconstruction s’effectue à deux et c’est très amusant : c’est un peu comme peindre un tableau à deux mains. C’est également ce que j’apprécie dans les témoignages des uns et des autres dans ce groupe, c’est que çà fait autant de point de vue différents sur des expériences qui sont souvent semblables. Là encore, je trouve que le sens s’enrichit.

Auteur 1 @ Denis Cottard. J’ai un peu la même façon d’aborder ça en principe. Mais j’ai été un peu secouée en lisant Dolores Cannon, de trouver des descriptions quand même très ressemblantes entre elles, et en particulier une description vraiment très similaire à une de mes expériences de sortie... et justement, jusque dans la forme... ça fout un peu une baffe à mon approche ?? - mais sinon, qu’est ce que c’est chouette de pouvoir lire tous ces points de vue, merci !  D'ailleurs Denis Cottard comment on fait des sorties en tandem ??

Denis Cottard @ Auteur 1. Alors, pour faire une sortie en tandem, il faut utiliser un protocole de sortie qui démarre comme une projection de conscience dans laquelle on s’investit progressivement. Il est bien de faire çà avec quelqu’un qu’on connaît bien, dont on a une signature énergétique, claire car tant qu’on ne sait pas se faire un véhicule à 2 places (qui peut se résumer à une bulle de taille adéquate), on peut se perdre et partir chacun dans son coin. D’autre part, au début, on est chacun bien calé dans un fauteuil mais on peut se parler si nécessaire et c’est très aidant pour savoir où est l’autre. Au fil de l’exploration, on se fait happé par la situation, et on ne se parle plus physiquement, mais on continue de se parler mentalement, car çà maintient le lien : c’est du genre : t’es là ? Oui et toi ? ?? on se fait nos commentaires, on se donne des indications de déplacement.

J’ai appris çà en cours de parapsychologie car c’était un exercice assez ludique qu’on faisait à chaque fin de cours. Il y avait une personne qui notait sur un papier, des lieux qu’elle allait visiter en esprit, et les autres n’avaient qu’à suivre son empreinte énergétique et dire à la fin, les sites dans lesquels ils avaient été, et on pouvait vérifier avec ce qui avait été inscrit. Surprenant ! Une de mes filles était excellente à ce jeu -là. Essayez, vous allez voir, déjà, c’est sympa comme tout, et puis, c’est la base pour effectuer une sortie à deux.

Dans ces sorties à deux, on peut décider de ce qu’on veut visiter, ou se laisser aller au hasard. Je sais que nombre d’entre vous vont penser : Bof, c’est que du remote viewing ! Mais faites-le et on en reparle : vous allez voir que c’est bien plus que çà, et que, un des intérêts de la chose, en dehors du fait qu’on peut confronter les deux expériences a posteriori, c’est que la conscience y est particulièrement vive et les perceptions très claires. ( à part peut-être qu’on peut y voir à l’envers - pas systématiquement mais çà peut arriver - c’est à dire comme l’image dans un miroir ce qui rend toute lecture particulièrement fastidieuse!!).

Avec l’habitude, on peut même le faire à distance de la personne. Il faut juste fixer un jour et une heure et on s’y met. On se donne RV là où on a "parqué" la bulle qui nous sert à voyager ensemble, et on se met dedans et quand l’autre y est aussi, on bouge.

Il y a une quinzaine d’année, avec une amie on était très désireux de savoir à quoi s’en tenir à propos de la 9 eme planète, ce corps qui fou le bordel dans les orbites des planètes extérieures. On s’y est rendu de cette façon là, et à l’époque on a été très surpris de rencontrer un corps noir comme l’encre et qui semblait même absorber toute lumière. Il faut dire que dans le soit-disant  "vide spatial" c’est très éclairé parce qu’on voit mille fois plus d’étoiles et ce corps se repère parce qu’il masque les étoiles sur son passage. Nous nous sommes rapproché et très honnêtement, ce truc tout noir , un peu grouillant (il y avait du mouvement, un peu comme de l’eau ou un quelque chose de fluide) n’était pas très engageant, et courageux mais pas téméraires, dans le doute on s’est tiré de là vite fait. J’ai lu cette semaine que des astronomes très sérieux envisagent que ce corps puisse être un mini trou noir. Tiens, tiens ...

Auteur 1 @ Denis Cottard ça à l’air très chouette et ça me rend curieuse, tout en me demandant avec qui j’aurais envie de faire ça ?? ... je sais pas... merci pour le partage.

Denis Cottard@auteur 1. Il faut faire çà avec quelqu'un que vous connaissez bien, parce qu'on est vraiment à poil !!! on entend tout ce que l'autre pense ou ressent. Heureusement, quand on est en esprit, on a pas trop de pulsion sexuelles, pour ne pas dire niveau zéro. Mais enfin, çà fait partie de ces voyages où l'on garde une certaine apparence, pour ne pas se perdre, on se voit aussi. çà pourrait être gênant !! ??

Auteur1 @ Denis Cottard. Certes ??

Reinald Durand. Pour revenir à ce qui est dit plus haut, évoquer l'objectivité et des constantes, des repères qui seraient fixes nous fait entrer sur un terrain glissant. La perception, de même que la connaissance, n'est jamais neutre. La perception est orientée, colorée par nos croyances, nos intentions, nos attentes, nos états intérieurs. Comme on dit, on voit ce qu'on veut voir, même si on n'en est pas toujours conscient ou qu'on a oublié la chose. Et si on fait intervenir des petits hommes gris ou des figures sombres encapuchonnées autour de son lit, il y a peut être une raison, qui n'a pas nécessairement à être jugée d'ailleurs en termes de bien ou de mal. Maintenant, on peut surtout en prendre conscience pour changer la nature de ses aventures... C'est la même chose dans la vie de tous les jours, je pense. Il peut être utile de prendre le temps d'examiner certaines choses: est-ce que ce sont des projections, est-ce qu'on n'en rajoute pas une couche, est-ce qu'on peut relier ce qu'on voit à des croyances, des intentions, des états intérieurs? Il y a un monde intérieur d'où jaillit cette réalité qu'il faut reconnaitre, à défaut on croira que tout cela nous arrive, indépendamment de notre volonté ( innocente victime, va!) que ce soit dans le rêve, dans les sorties hors corps, dans son quotidien, et si on change l'intérieur l'extérieur se met changer...??

Denis Cottard. Je suis bien d’accord, il ne faut pas oublier le caractère hautement subjectif d’expériences de ce genre.

C’est d’ailleurs tout l’intérêt de chercher à vérifier dans "la vie réelle", ce qui est vérifiable, et même de s’efforcer d’orienter nos sorties dans ce sens afin d’avoir une idée du pourcentage d’entre elles qui est validable et trouver le juste recul qu’il convient d’avoir à cet égard, car on va tous expérimenter un jour ou l’autre, ce truc de ouf qui va nous obliger à convenir qu’il y a bien là, un outil incroyable qui nous ouvre réellement des voies de connaissance objective, mais çà n’implique pas pour autant que toutes nos sorties soient des expériences de ce type.

J’ai longtemps pratiqué la radiesthésie, et j’y retrouve le même problème, et je pense que c’est encore la même chose avec la médiumnité. Toutes ces voies provoquent réellement une amplification de notre champ de perception mais dont il faut se garder de considérer la pertinence comme acquise une fois pour toute.

Denis Cottard. C'est comme pour "vu à la télé", çà ne veux pas dire que c'est juste à tous les coups.

Reinald Durand. Oui, qu'est qui est réel, qu'est-ce qui ne l'est pas ? l'imagination pourrait être réelle... Qu'est-ce qui va faire la différence? Pour moi, ça tourne autour de consensus, de conventions, d'accords souvent tacites reposant sur des objectifs communs... et une manière de camoufler les choses, filtrage propres à chaque monde ou dimension sur quelque chose d'infini. Alors il y a peut-être simplement moins de réalité lorsqu'on se trompe, lorsqu'on s'écarte de ce qu'on est profondément et qu'on souffre... Je ne nie pas le besoin d'objectivité, mais, comme tu dis, c'est essayer de voir deux fois. ??

Sofiane Thoulon. Bonjour, comme vous j'ai des synesthesies. Chez moi elles s'expriment beaucoup par les voyelles qui sont directement reliées à des couleurs (i rouge, a blanc, etc...) j'ai aussi des mots dont la sonorité se rapportent à des formes géométriques etc...

J'ai vécu lors d'une sortie l'été dernier, un phénomène que je dirais de cet ordre : alors que j'étais en train de sortir de mon corps, des entités sont venues autour de moi, je ne les voyais pas mais je sentais qu'elles étaient plusieurs. J'ai senti qu'elles me touchaient, elles faisaient une sorte d'expérience. Bref, rien de très rassurant sur le coup, d'autant plus que j'avais parlé quelques jours auparavant, avec une personne médium qui avait subie des attaques et qui voulait m'avertir du danger. Elle m'avait donc conseillé de les insulter sans relâche jusqu'à ce qu'elles partent. J'ai donc fait ça et, non seulement elles ne partaient pas, mais j'ai alors vu dans mon ''écran visuel'' une sorte d'onde verticale faite de lumière rose-rouge en mouvement et assez anguleuse. C'était clairement pour moi, la conversion visuelle de l'onde des insultes. Je n'ai même pas vraiment voulu interpréter, mais cette info est venue immédiatement après l'expérience. Pour en conclure, derrière n'importe quel Objet physique, de quelque nature qu'il soit, il y a un champ d'information d'ordre quantique et je pense que les synesthesies sont une sorte de perception de cette information quantique, que le cerveau humain essaie de convertir pour en comprendre l'essence. Mais finalement, ce qui fait la subjectivité des synesthesies, c'est peut-être bien cette conversion faite par le cerveau de chacun, pour comprendre l'essence des choses. Haha je ne sais même pas si je suis claire ??? je crois que je m'embrouille moi même !

Claude-Samuel Levine @ Sofiane Thoulon. Si c'est clair, je comprend bien. Du fait que moi même j'ai toujours eu des synesthésies très précises.

Lettres, chiffres, nombres, heures, jours de la semaine, mois, notes de musiques et orchestrations. D'ailleurs ce n'est pas qu'une association "couleur" ,la couleur envoit à une véritable ambiance. Exemple : une musique en LA majeur : La vert, Do# jaune doré => forêt au soleil, ou lumière de l'au-delà sur paysage, et avec la joie liée à la lumière. Le "Metal" : violence, rouge sombre noir avec lignes cassantes et les barres des rythmes.

Auteur: Anonymes pseudos

Info: Fil de discussion sur Explorateurs du réel avec Marc Auburn, octobre 2019

[ réalités individuelles ] [ cerveau filtre ] [ ésotérisme ] [ occultisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

big brother consumériste

Nulle part où se cacher : Les collecteurs de données sont venus pour capter votre vie privée - et ils l'ont trouvée

La manière dont vos données sont stockées et partagées évolue et votre activité en ligne peut être utilisée pour vous catégoriser d'une manière qui modifie radicalement votre vie. Il existe des moyens de reprendre le contrôle.

Un vendredi de 2021, je suis entré dans un hôtel d'Exeter, au Royaume-Uni, à 17:57:35. Le lendemain matin, j'ai fait 9 minutes de route pour me rendre à l'hôpital le plus proche. J'y suis resté trois jours. Le trajet de retour, qui dure normalement 1 heure 15 minutes, a duré 1 heure 40 minutes. La raison de cette lenteur : mon tout nouveau bébé dormait à l'arrière.

Ce ne sont pas les détails d'un journal. Il s'agit plutôt de ce que Google sait de la naissance de ma fille, sur la base de mon seul historique de localisation.

Un aperçu des données de ce week-end révèle que ce n'est pas tout ce que les entreprises savent de moi. Netflix se souvient que j'ai regardé toute une série d'émissions de bien-être, dont Gilmore Girls et How to Lose a Guy in 10 Days (Comment perdre un homme en 10 jours). Instagram a enregistré que j'ai "aimé" un post sur l'induction du travail, puis que je ne me suis pas reconnectée pendant une semaine.

Et alors ? Nous savons tous maintenant que nous sommes suivis en ligne et que les données collectées sur nous sont à la fois granulaires et constantes. Peut-être aimez-vous que Netflix et Instagram connaissent si bien vos goûts en matière de cinéma et de mode.

Mais un nombre croissant d'enquêtes et de poursuites judiciaires révèlent un nouveau paysage du suivi en ligne dans lequel la portée des entreprises qui collectent des données est plus insidieuse que beaucoup d'entre nous ne le pensent. En y regardant de plus près, j'ai découvert que mes données personnelles pouvaient avoir une incidence sur tout, depuis mes perspectives d'emploi et mes demandes de prêt jusqu'à mon accès aux soins de santé. En d'autres termes, elles peuvent façonner ma vie quotidienne d'une manière dont je n'avais pas conscience. "Le problème est énorme et il y a toujours de nouvelles horreurs", déclare Reuben Binns, de l'université d'Oxford.

On pourrait vous pardonner de penser qu'avec l'introduction d'une législation comme le règlement général sur la protection des données (RGPD) - des règles de l'Union européenne mises en œuvre en 2018 qui donnent aux gens un meilleur accès aux données que les entreprises détiennent sur eux et limitent ce que les entreprises peuvent en faire - la confidentialité des données n'est plus un vrai problème. Vous pouvez toujours refuser les cookies si vous ne voulez pas être suivi, n'est-ce pas ? Mais lorsque je dis cela à Pam Dixon, du groupe de recherche à but non lucratif World Privacy Forum, elle se met à rire d'incrédulité. "Tu y crois vraiment ?" me dit-elle.

Les gratteurs de données

Des centaines d'amendes ont été infligées pour violation du GDPR, notamment à Google, British Airways et Amazon. Mais les experts en données affirment qu'il ne s'agit là que de la partie émergée de l'iceberg. Une étude réalisée l'année dernière par David Basin de l'ETH Zurich, en Suisse, a révélé que 95 % des sites web pourraient enfreindre les règles du GDPR. Même l'objectif de la législation visant à faciliter la compréhension des données que nous acceptons de fournir n'a pas été atteint. Depuis l'entrée en vigueur de la législation, les recherches montrent que les accords de confidentialité sont devenus plus compliqués, rein de moins. Et si vous pensiez que les bloqueurs de publicité et les réseaux privés virtuels (VPN) - qui masquent l'adresse IP de votre ordinateur - vous protégeaient, détrompez-vous. Bon nombre de ces services vendent également vos données.

Nous commençons à peine à saisir l'ampleur et la complexité du paysage de la traque en ligne. Quelques grands noms - Google, Meta, Amazon et Microsoft - détiennent l'essentiel du pouvoir, explique Isabel Wagner, professeur associé de cybersécurité à l'université de Bâle, en Suisse. Mais derrière ces grands acteurs, un écosystème diversifié de milliers, voire de millions, d'acheteurs, de vendeurs, de serveurs, de traqueurs et d'analyseurs partagent nos données personnelles.

Qu'est-ce que tout cela signifie pour l'utilisateur lambda que je suis ? Pour le savoir, je me suis rendu chez HestiaLabs à Lausanne, en Suisse, une start-up fondée par Paul-Olivier Dehaye, mathématicien et lanceur d'alerte clé dans le scandale de l'utilisation des données de Facebook par la société de conseil politique Cambridge Analytica. Cette société a utilisé des données personnelles pour influencer l'élection de Donald Trump à la présidence des États-Unis en 2016. L'enquête de Dehaye sur Cambridge Analytica a montré de manière frappante à quel point l'influence des entreprises qui achètent et vendent des données est profonde. Il a créé HestiaLabs pour changer cette situation.

(Photo : Votre téléphone suit votre position même si les données mobiles sont désactivées)

Avant d'arriver, j'ai demandé mes données personnelles à diverses entreprises, un processus plus compliqué qu'il ne devrait l'être à l'ère du RGPD. Je rencontre Charles Foucault-Dumas, le chef de projet de HestiaLabs, au siège de l'entreprise - un modeste espace de co-working situé en face de la gare de Lausanne. Nous nous asseyons et téléchargeons mes fichiers dans son portail sur mesure.

Mes données s'étalent devant moi, visualisées sous la forme d'une carte de tous les endroits où je suis allé, de tous les posts que j'ai aimés et de toutes les applications qui ont contacté un annonceur. Dans les lieux que je fréquente régulièrement, comme la crèche de ma fille, des centaines de points de données se transforment en taches semblables à de la peinture. À l'adresse de mon domicile, il y a une énorme cible impossible à manquer. C'est fascinant. Et un peu terrifiant.

L'une des plus grandes surprises est de savoir quelles applications de mon téléphone contactent des entreprises tierces en mon nom. Au cours de la semaine écoulée, c'est un navigateur web que j'utilise parce qu'il se décrit comme "le respect de la vie privée avant tout" qui a été le plus grand contrevenant, en contactant 29 entreprises. Mais pratiquement toutes les applications de mon téléphone, du service d'épicerie au bloc-notes virtuel, étaient occupées à contacter d'autres entreprises pendant que je vaquais à mes occupations.

En règle générale, une entreprise qui souhaite vendre un produit ou un service s'adresse à une agence de publicité, qui se met en relation avec des plates-formes chargées de la diffusion des publicités, qui utilisent des échanges publicitaires, lesquels sont reliés à des plates-formes d'approvisionnement, qui placent les publicités sur les sites web des éditeurs. Chaque fois que vous ouvrez un site web ou que vous survolez momentanément un message sur un média social, cette machine - dont la valeur est estimée à 150 milliards de livres sterling par an - se met en marche.

Que partageaient exactement ces entreprises à mon sujet ? Pour le savoir, il faudrait que je fasse des demandes auprès de chacune d'entre elles. Et même avec celles que j'ai contactées avec l'aide de HestiaLabs, ce n'est pas toujours clair.

Prenons l'exemple d'Instagram. Il m'a fourni des données montrant qu'il a enregistré 333 "intérêts" en mon nom. Certains d'entre eux sont très éloignés de la réalité : le rugby, le festival Burning Man, la promotion immobilière, et même "femme à chats". Lecteur, je n'ai jamais eu de chat. Mais d'autres sont plus précis, et un certain nombre d'entre eux, sans surprise, sont liés au fait que je suis devenue parent, qu'il s'agisse de marques telles que Huggies et Peppa Pig ou de sujets tels que les berceaux et le sevrage pour bébés.

Je me demande comment ces données ont pu affecter non seulement mes achats, mais aussi la vie de ma fille. Son amour pour le cochon rose de dessin animé est-il vraiment organique, ou ces vidéos nous ont-elles été "servies" en raison des informations qu'Instagram a transmises à mon sujet ? Est-ce que les posts sur le sevrage dirigé par les bébés se sont retrouvés partout dans mon fil d'actualité - et ont donc influencé la façon dont ma fille a été initiée à la nourriture - par hasard, ou parce que j'avais été ciblée ? Je n'ai pas accès à cette chaîne de causes et d'effets, et je ne sais pas non plus comment ces divers "intérêts" ont pu me catégoriser pour d'éventuels spécialistes du marketing.

Il est pratiquement impossible de démêler l'écheveau complexe des transactions de données dans l'ombre. Les données personnelles sont souvent reproduites, divisées, puis introduites dans des algorithmes et des systèmes d'apprentissage automatique. En conséquence, explique M. Dixon, même avec une législation comme le GDPR, nous n'avons pas accès à toutes nos données personnelles. "Nous avons affaire à deux strates de données. Il y a celles qui peuvent être trouvées", dit-elle. "Mais il y a une autre strate que vous ne pouvez pas voir, que vous n'avez pas le droit légal de voir - aucun d'entre nous ne l'a."

Profilage personnel

Des rapports récents donnent un aperçu de la situation. En juin, une enquête de The Markup a révélé que ce type de données cachées est utilisé par les publicitaires pour nous classer en fonction de nos convictions politiques, de notre état de santé et de notre profil psychologique. Pourrais-je être considérée comme une "mère accro au portable", une "indulgente", une "facilement dégonflée" ou une "éveillée" ? Je n'en ai aucune idée, mais je sais qu'il s'agit là de catégories utilisées par les plateformes publicitaires en ligne.

Il est troublant de penser que je suis stéréotypée d'une manière inconnue. Une autre partie de moi se demande si cela a vraiment de l'importance. Je comprends l'intérêt d'une publicité qui tient compte de mes préférences, ou de l'ouverture de mon application de cartographie qui met en évidence des restaurants et des musées qui pourraient m'intéresser ou que j'ai déjà visités. Mais croyez-moi, il y a peu de façons de faire grimacer un expert en données plus rapidement qu'avec la désinvolture de ce compromis.

D'une part, l'utilisation de ces données va bien au-delà de la vente de publicité, explique M. Dixon. Quelque chose d'apparemment anodin comme le fait de faire des achats dans des magasins discount (signe d'un revenu inférieur) ou d'acheter des articles de sport (signe que vous faites de l'exercice) peut avoir une incidence sur tout, de l'attrait de votre candidature à l'université au montant de votre assurance maladie. "Il ne s'agit pas d'une simple publicité", précise M. Dixon. "Il s'agit de la vie réelle.

Une législation récente aux États-Unis a contraint certaines de ces entreprises à entrer dans la lumière. Le Vermont's 2018 Data Broker Act, par exemple, a révélé que les courtiers en données enregistrés dans l'État - mais qui sont également actifs ailleurs - vendent des informations personnelles à des propriétaires et des employeurs potentiels, souvent par l'intermédiaire de tierces parties. En juillet, le Bureau américain de protection financière des consommateurs a appris que cette deuxième strate cachée de données comprenait également des informations utilisées pour établir un "score de consommation", employé de la même manière qu'un score de crédit. "Les choses que vous avez faites, les sites web que vous avez visités, les applications que vous utilisez, tout cela peut alimenter des services qui vérifient si vous êtes un locataire convenable ou décident des conditions à vous offrir pour un prêt ou une hypothèque", explique M. Binns.

À HestiaLabs, je me rends compte que j'ai moi aussi été concrètement affectée, non seulement par les publicités que je vois, mais aussi par la façon dont les algorithmes ont digéré mes données. Dans les "inférences" de LinkedIn, je suis identifiée à la fois comme "n'étant pas un leader humain" et "n'étant pas un leader senior". Et ce, bien que j'aie dirigé une équipe de 20 personnes à la BBC et que j'aie été rédacteur en chef de plusieurs sites de la BBC auparavant - des informations que j'ai moi-même introduites dans LinkedIn. Comment cela peut-il affecter mes opportunités de carrière ? Lorsque j'ai posé la question à LinkedIn, un porte-parole m'a répondu que ces déductions n'étaient pas utilisées "de quelque manière que ce soit pour informer les suggestions de recherche d'emploi".

Malgré cela, nous savons, grâce à des poursuites judiciaires, que des données ont été utilisées pour exclure les femmes des annonces d'emploi dans le secteur de la technologie sur Facebook. En conséquence, le propriétaire de la plateforme, Meta, a cessé d'offrir cette option aux annonceurs en 2019. Mais les experts en données affirment qu'il existe de nombreuses solutions de contournement, comme le fait de ne cibler que les personnes ayant des intérêts stéréotypés masculins. "Ces préjudices ne sont pas visibles pour les utilisateurs individuels à ce moment-là. Ils sont souvent très abstraits et peuvent se produire longtemps après", explique M. Wagner.

À mesure que les données collectées sur notre vie quotidienne prolifèrent, la liste des préjudices signalés par les journaux ne cesse de s'allonger. Des applications de suivi de l'ovulation - ainsi que des messages textuels, des courriels et des recherches sur le web - ont été utilisés pour poursuivre des femmes ayant avorté aux États-Unis depuis que l'arrêt Roe v Wade a été annulé l'année dernière. Des prêtres ont été démasqués pour avoir utilisé l'application de rencontres gay Grindr. Un officier militaire russe a même été traqué et tué lors de sa course matinale, prétendument grâce à des données accessibles au public provenant de l'application de fitness Strava. La protection des données est censée prévenir bon nombre de ces préjudices. "Mais il y a manifestement une énorme lacune dans l'application de la loi", déclare M. Binns.

Le problème réside en partie d'un manque de transparence. De nombreuses entreprises s'orientent vers des modèles "préservant la vie privée", qui divisent les points de données d'un utilisateur individuel et les dispersent sur de nombreux serveurs informatiques, ou les cryptent localement. Paradoxalement, il est alors plus difficile d'accéder à ses propres données et d'essayer de comprendre comment elles ont été utilisées.

Pour sa part, M. Dehaye, de HestiaLabs, est convaincu que ces entreprises peuvent et doivent nous rendre le contrôle. "Si vous allez consulter un site web en ce moment même, en quelques centaines de millisecondes, de nombreux acteurs sauront qui vous êtes et sur quel site vous avez mis des chaussures dans un panier d'achat il y a deux semaines. Lorsque l'objectif est de vous montrer une publicité pourrie, ils sont en mesure de résoudre tous ces problèmes", explique-t-il. Mais lorsque vous faites une demande de protection de la vie privée, ils se disent : "Oh, merde, comment on fait ça ?".

Il ajoute : "Mais il y a un moyen d'utiliser cette force du capitalisme qui a résolu un problème dans une industrie de plusieurs milliards de dollars pour vous - pas pour eux".

J'espère qu'il a raison. En marchant dans Lausanne après avoir quitté HestiaLabs, je vois un homme qui s'attarde devant un magasin de couteaux, son téléphone rangé dans sa poche. Une femme élégante porte un sac Zara dans une main, son téléphone dans l'autre. Un homme devant le poste de police parle avec enthousiasme dans son appareil.

Pour moi, et probablement pour eux, ce sont des moments brefs et oubliables. Mais pour les entreprises qui récoltent les données, ce sont des opportunités. Ce sont des signes de dollars. Et ce sont des points de données qui ne disparaîtront peut-être jamais.

Reprendre le contrôle

Grâce aux conseils de M. Dehaye et des autres experts que j'ai interrogés, lorsque je rentre chez moi, je vérifie mes applications et je supprime celles que je n'utilise pas. Je supprime également certaines de celles que j'utilise mais qui sont particulièrement désireuses de contacter des entreprises, en prévoyant de ne les utiliser que sur mon ordinateur portable. (J'ai utilisé une plateforme appelée TC Slim pour me dire quelles entreprises mes applications contactent). J'installe également un nouveau navigateur qui (semble-t-il) accorde la priorité à la protection de la vie privée. Selon M. Wagner, les applications et les navigateurs open source et à but non lucratif peuvent constituer des choix plus sûrs, car ils ne sont guère incités à collecter vos données.

Je commence également à éteindre mon téléphone plus souvent lorsque je ne l'utilise pas. En effet, votre téléphone suit généralement votre position même lorsque les données mobiles et le Wi-Fi sont désactivés ou que le mode avion est activé. De plus, en me connectant à mes préférences Google, je refuse d'enregistrer l'historique de mes positions, même si la nostalgie - pour l'instant - m'empêche de demander que toutes mes données antérieures soient supprimées.

Nous pouvons également réinitialiser notre relation avec le suivi en ligne en changeant notre façon de payer, explique Mme Dixon. Elle suggère d'utiliser plusieurs cartes de crédit et d'être "très prudent" quant au portefeuille numérique que nous utilisons. Pour les achats susceptibles de créer un signal "négatif", comme ceux effectués dans un magasin discount, il est préférable d'utiliser de l'argent liquide, si possible. M. Dixon conseille également de ne pas utiliser d'applications ou de sites web liés à la santé, si possible. "Ce n'est tout simplement pas un espace clair et sûr", dit-elle.

En réalité, quelles que soient les mesures que vous prenez, les entreprises trouveront toujours de nouveaux moyens de contourner le problème. "C'est un jeu où l'on ne peut que perdre", affirme M. Dehaye. C'est pourquoi la solution ne dépend pas des individus. "Il s'agit d'un véritable changement de société.

En réunissant suffisamment de voix individuelles, M. Dehaye pense que nous pouvons changer le système - et que tout commence par le fait que vous demandiez vos données. Dites aux entreprises : "Si vous vous dérobez, notre confiance est perdue"", déclare-t-il. "Et dans ce monde de données, si les gens ne font pas confiance à votre entreprise, vous êtes mort.

Auteur: Ruggeri Amanda

Info: https://blog.shiningscience.com/2023/08/nowhere-to-hide-data-harvesters-came.html, 26 août 2023

[ idiosyncrasie numérique ] [ capitalisme de surveillance ] [ internet marchand ]

 

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel

auto-programmation

Pieuvres et calmars modifient et corrigent (édit en anglais) leur ARN, tout en laissant l'ADN intact. Des changements qui pourraient expliquer l'intelligence et la flexibilité des céphalopodes dépourvus de coquille

De nombreux écrivains se plaignent lorsqu'un rédacteur  vient éditer et donc modifier leur article, mais les conséquences de la modification d'un seul mot ne sont généralement pas si graves.

Ce n'est pas le cas des instructions génétiques pour la fabrication des protéines. Même une petite modification peut empêcher une protéine de faire son travail correctement, ce qui peut avoir des conséquences mortelles. Ce n'est qu'occasionnellement qu'un changement est bénéfique. Il semble plus sage de conserver les instructions génétiques telles qu'elles sont écrites. À moins d'être une pieuvre.

Les pieuvres sont comme des extraterrestres qui vivent parmi nous : elles font beaucoup de choses différemment des animaux terrestres ou même des autres créatures marines. Leurs tentacules flexibles goûtent ce qu'ils touchent et ont leur esprit propre. Les yeux des pieuvres sont daltoniens, mais leur peau peut détecter la lumière par elle-même. Les pieuvres sont des maîtres du déguisement, changeant de couleur et de texture de peau pour se fondre dans leur environnement ou effrayer leurs rivaux. Et plus que la plupart des créatures, les pieuvres font gicler l'équivalent moléculaire de l'encre rouge sur leurs instructions génétiques avec un abandon stupéfiant, comme un rédacteur en chef déchaîné.

Ces modifications-éditions concernent l'ARN, molécule utilisée pour traduire les informations du plan génétique stocké dans l'ADN, tout en laissant l'ADN intact.

Les scientifiques ne savent pas encore avec certitude pourquoi les pieuvres et d'autres céphalopodes sans carapace, comme les calmars et les seiches, sont des modificateurs aussi prolifiques. Les chercheurs se demandent si cette forme d'édition génétique a donné aux céphalopodes une longueur d'avance sur le plan de l'évolution (ou un tentacule) ou si cette capacité n'est qu'un accident parfois utile. Les scientifiques étudient également les conséquences que les modifications de l'ARN peuvent avoir dans diverses conditions. Certaines données suggèrent que l'édition pourrait donner aux céphalopodes une partie de leur intelligence, mais au prix d'un ralentissement de l'évolution de leur ADN.

"Ces animaux sont tout simplement magiques", déclare Caroline Albertin, biologiste spécialiste du développement comparatif au Marine Biological Laboratory de Woods Hole (Massachusetts). "Ils ont toutes sortes de solutions différentes pour vivre dans le monde d'où ils viennent. L'édition de l'ARN pourrait contribuer à donner à ces créatures un grand nombre de solutions aux problèmes qu'elles peuvent rencontrer.

(vidéo - Contrairement à d'autres animaux à symétrie bilatérale, les pieuvres ne rampent pas dans une direction prédéterminée. Des vidéos de pieuvres en train de ramper montrent qu'elles peuvent se déplacer dans n'importe quelle direction par rapport à leur corps, et qu'elles changent de direction de rampe sans avoir à tourner leur corps. Dans le clip, la flèche verte indique l'orientation du corps de la pieuvre et la flèche bleue indique la direction dans laquelle elle rampe.)

Le dogme central de la biologie moléculaire veut que les instructions pour construire un organisme soient contenues dans l'ADN. Les cellules copient ces instructions dans des ARN messagers, ou ARNm. Ensuite, des machines cellulaires appelées ribosomes lisent les ARNm pour construire des protéines en enchaînant des acides aminés. La plupart du temps, la composition de la protéine est conforme au modèle d'ADN pour la séquence d'acides aminés de la protéine.

Mais l'édition de l'ARN peut entraîner des divergences par rapport aux instructions de l'ADN, créant ainsi des protéines dont les acides aminés sont différents de ceux spécifiés par l'ADN.

L'édition modifie chimiquement l'un des quatre éléments constitutifs de l'ARN, ou bases. Ces bases sont souvent désignées par les premières lettres de leur nom : A, C, G et U, pour adénine, cytosine, guanine et uracile (la version ARN de la base ADN thymine). Dans une molécule d'ARN, les bases sont liées à des sucres ; l'unité adénine-sucre, par exemple, est appelée adénosine.

Il existe de nombreuses façons d'éditer des lettres d'ARN. Les céphalopodes excellent dans un type d'édition connu sous le nom d'édition de l'adénosine à l'inosine, ou A-to-I. Cela se produit lorsqu'une enzyme appelée ADAR2 enlève un atome d'azote et deux atomes d'hydrogène de l'adénosine (le A). Ce pelage chimique transforme l'adénosine en inosine (I).

 Les ribosomes lisent l'inosine comme une guanine au lieu d'une adénine. Parfois, ce changement n'a aucun effet sur la chaîne d'acides aminés de la protéine résultante. Mais dans certains cas, la présence d'un G à la place d'un A entraîne l'insertion d'un acide aminé différent dans la protéine. Ce type d'édition de l'ARN modifiant la protéine est appelé recodage de l'ARN.

Les céphalopodes à corps mou ont adopté le recodage de l'ARN à bras-le-corps, alors que même les espèces étroitement apparentées sont plus hésitantes à accepter les réécritures, explique Albertin. "Les autres mollusques ne semblent pas le faire dans la même mesure.

L'édition de l'ARN ne se limite pas aux créatures des profondeurs. Presque tous les organismes multicellulaires possèdent une ou plusieurs enzymes d'édition de l'ARN appelées enzymes ADAR, abréviation de "adénosine désaminase agissant sur l'ARN", explique Joshua Rosenthal, neurobiologiste moléculaire au Marine Biological Laboratory.

Les céphalopodes possèdent deux enzymes ADAR. L'homme possède également des versions de ces enzymes. "Dans notre cerveau, nous modifions une tonne d'ARN. Nous le faisons beaucoup", explique Rosenthal. Au cours de la dernière décennie, les scientifiques ont découvert des millions d'endroits dans les ARN humains où se produit l'édition.

Mais ces modifications changent rarement les acides aminés d'une protéine. Par exemple, Eli Eisenberg, de l'université de Tel Aviv, et ses collègues ont identifié plus de 4,6 millions de sites d'édition dans les ARN humains. Parmi ceux-ci, seuls 1 517 recodent les protéines, ont rapporté les chercheurs l'année dernière dans Nature Communications. Parmi ces sites de recodage, jusqu'à 835 sont partagés avec d'autres mammifères, ce qui suggère que les forces de l'évolution ont préservé l'édition à ces endroits.

(Encadré :  Comment fonctionne l'édition de l'ARN ?

Dans une forme courante d'édition de l'ARN, une adénosine devient une inosine par une réaction qui supprime un groupe aminé et le remplace par un oxygène (flèches). L'illustration montre une enzyme ADAR se fixant à un ARN double brin au niveau du "domaine de liaison de l'ARNdb". La région de l'enzyme qui interagit pour provoquer la réaction, le "domaine de la désaminase", est positionnée près de l'adénosine qui deviendra une inosine.)

Les céphalopodes portent le recodage de l'ARN à un tout autre niveau, dit Albertin. L'encornet rouge (Doryteuthis pealeii) possède 57 108 sites de recodage, ont rapporté Rosenthal, Eisenberg et leurs collègues en 2015 dans eLife. Depuis, les chercheurs ont examiné plusieurs espèces de pieuvres, de calmars et de seiches, et ont à chaque fois trouvé des dizaines de milliers de sites de recodage.

Les céphalopodes à corps mou, ou coléoïdes, pourraient avoir plus de possibilités d'édition que les autres animaux en raison de l'emplacement d'au moins une des enzymes ADAR, ADAR2, dans la cellule. La plupart des animaux éditent les ARN dans le noyau - le compartiment où l'ADN est stocké et copié en ARN - avant d'envoyer les messages à la rencontre des ribosomes. Mais chez les céphalopodes, les enzymes se trouvent également dans le cytoplasme, l'organe gélatineux des cellules, ont découvert Rosenthal et ses collègues (SN : 4/25/20, p. 10).

Le fait d'avoir des enzymes d'édition dans deux endroits différents n'explique pas complètement pourquoi le recodage de l'ARN chez les céphalopodes dépasse de loin celui des humains et d'autres animaux. Cela n'explique pas non plus les schémas d'édition que les scientifiques ont découverts.

L'édition de l'ARN amènerait de la flexibilité aux céphalopodes

L'édition n'est pas une proposition "tout ou rien". Il est rare que toutes les copies d'un ARN dans une cellule soient modifiées. Il est beaucoup plus fréquent qu'un certain pourcentage d'ARN soit édité tandis que le reste conserve son information originale. Le pourcentage, ou fréquence, de l'édition peut varier considérablement d'un ARN à l'autre ou d'une cellule ou d'un tissu à l'autre, et peut dépendre de la température de l'eau ou d'autres conditions. Chez le calmar à nageoires longues, la plupart des sites d'édition de l'ARN étaient édités 2 % ou moins du temps, ont rapporté Albertin et ses collègues l'année dernière dans Nature Communications. Mais les chercheurs ont également trouvé plus de 205 000 sites qui étaient modifiés 25 % du temps ou plus.

Dans la majeure partie du corps d'un céphalopode, l'édition de l'ARN n'affecte pas souvent la composition des protéines. Mais dans le système nerveux, c'est une autre histoire. Dans le système nerveux du calmar à nageoires longues, 70 % des modifications apportées aux ARN producteurs de protéines recodent ces dernières. Dans le système nerveux de la pieuvre californienne à deux points (Octopus bimaculoides), les ARN sont recodés trois à six fois plus souvent que dans d'autres organes ou tissus.

(Photo -  L'encornet rouge recode l'ARN à plus de 50 000 endroits. Le recodage de l'ARN pourrait aider le calmar à réagir avec plus de souplesse à son environnement, mais on ne sait pas encore si le recodage a une valeur évolutive. Certains ARNm possèdent plusieurs sites d'édition qui modifient les acides aminés des protéines codées par les ARNm. Dans le système nerveux de l'encornet rouge, par exemple, 27 % des ARNm ont trois sites de recodage ou plus. Certains contiennent 10 sites ou plus. La combinaison de ces sites d'édition pourrait entraîner la fabrication de plusieurs versions d'une protéine dans une cellule.)

Le fait de disposer d'un large choix de protéines pourrait donner aux céphalopodes "plus de souplesse pour réagir à l'environnement", explique M. Albertin, "ou leur permettre de trouver diverses solutions au problème qui se pose à eux". Dans le système nerveux, l'édition de l'ARN pourrait contribuer à la flexibilité de la pensée, ce qui pourrait expliquer pourquoi les pieuvres peuvent déverrouiller des cages ou utiliser des outils, pensent certains chercheurs. L'édition pourrait être un moyen facile de créer une ou plusieurs versions d'une protéine dans le système nerveux et des versions différentes dans le reste du corps, explique Albertin.

Lorsque l'homme et d'autres vertébrés ont des versions différentes d'une protéine, c'est souvent parce qu'ils possèdent plusieurs copies d'un gène. Doubler, tripler ou quadrupler les copies d'un gène "permet de créer tout un terrain de jeu génétique pour permettre aux gènes de s'activer et d'accomplir différentes fonctions", explique M. Albertin. Mais les céphalopodes ont tendance à ne pas dupliquer les gènes. Leurs innovations proviennent plutôt de l'édition.

Et il y a beaucoup de place pour l'innovation. Chez le calmar, les ARNm servant à construire la protéine alpha-spectrine comportent 242 sites de recodage. Toutes les combinaisons de sites modifiés et non modifiés pourraient théoriquement créer jusqu'à 7 x 1072 formes de la protéine, rapportent Rosenthal et Eisenberg dans le numéro de cette année de l'Annual Review of Animal Biosciences (Revue annuelle des biosciences animales). "Pour mettre ce chiffre en perspective, écrivent les chercheurs, il suffit de dire qu'il éclipse le nombre de toutes les molécules d'alpha-spectrine (ou, d'ailleurs, de toutes les molécules de protéines) synthétisées dans toutes les cellules de tous les calmars qui ont vécu sur notre planète depuis l'aube des temps.

Selon Kavita Rangan, biologiste moléculaire à l'université de Californie à San Diego, ce niveau de complexité incroyable ne serait possible que si chaque site était indépendant. Rangan a étudié le recodage de l'ARN chez le calmar californien (Doryteuthis opalescens) et le calmar à nageoires longues. La température de l'eau incite les calmars à recoder les protéines motrices appelées kinésines qui déplacent les cargaisons à l'intérieur des cellules.

Chez l'encornet rouge, l'ARNm qui produit la kinésine-1 comporte 14 sites de recodage, a découvert Mme Rangan. Elle a examiné les ARNm du lobe optique - la partie du cerveau qui traite les informations visuelles - et du ganglion stellaire, un ensemble de nerfs impliqués dans la génération des contractions musculaires qui produisent des jets d'eau pour propulser le calmar.

Chaque tissu produit plusieurs versions de la protéine. Rangan et Samara Reck-Peterson, également de l'UC San Diego, ont rapporté en septembre dernier dans un article publié en ligne sur bioRxiv.org que certains sites avaient tendance à être édités ensemble. Leurs données suggèrent que l'édition de certains sites est coordonnée et "rejette très fortement l'idée que l'édition est indépendante", explique Rangan. "La fréquence des combinaisons que nous observons ne correspond pas à l'idée que chaque site a été édité indépendamment.

L'association de sites d'édition pourrait empêcher les calmars et autres céphalopodes d'atteindre les sommets de complexité dont ils sont théoriquement capables. Néanmoins, l'édition de l'ARN offre aux céphalopodes un moyen d'essayer de nombreuses versions d'une protéine sans s'enfermer dans une modification permanente de l'ADN, explique M. Rangan.

Ce manque d'engagement laisse perplexe Jianzhi Zhang, généticien évolutionniste à l'université du Michigan à Ann Arbor. "Pour moi, cela n'a pas de sens", déclare-t-il. "Si vous voulez un acide aminé particulier dans une protéine, vous devez modifier l'ADN. Pourquoi changer l'ARN ?

L'édition de l'ARN a-t-elle une valeur évolutive ?

L'édition de l'ARN offre peut-être un avantage évolutif. Pour tester cette idée, Zhang et Daohan Jiang, alors étudiant de troisième cycle, ont comparé les sites "synonymes", où les modifications ne changent pas les acides aminés, aux sites "non synonymes", où le recodage se produit. Étant donné que les modifications synonymes ne modifient pas les acides aminés, les chercheurs ont considéré que ces modifications étaient neutres du point de vue de l'évolution. Chez l'homme, le recodage, ou édition non synonyme, se produit sur moins de sites que l'édition synonyme, et le pourcentage de molécules d'ARN qui sont éditées est plus faible que sur les sites synonymes.

"Si nous supposons que l'édition synonyme est comme un bruit qui se produit dans la cellule, et que l'édition non-synonyme est moins fréquente et [à un] niveau plus bas, cela suggère que l'édition non-synonyme est en fait nuisible", explique Zhang. Même si le recodage chez les céphalopodes est beaucoup plus fréquent que chez les humains, dans la plupart des cas, le recodage n'est pas avantageux, ou adaptatif, pour les céphalopodes, ont affirmé les chercheurs en 2019 dans Nature Communications.

Il existe quelques sites communs où les pieuvres, les calmars et les seiches recodent tous leurs ARN, ont constaté les chercheurs, ce qui suggère que le recodage est utile dans ces cas. Mais il s'agit d'une petite fraction des sites d'édition. Zhang et Jiang ont constaté que quelques autres sites édités chez une espèce de céphalopode, mais pas chez les autres, étaient également adaptatifs.

Si ce n'est pas si utile que cela, pourquoi les céphalopodes ont-ils continué à recoder l'ARN pendant des centaines de millions d'années ? L'édition de l'ARN pourrait persister non pas parce qu'elle est adaptative, mais parce qu'elle crée une dépendance, selon Zhang.

Zhang et Jiang ont proposé un modèle permettant de nuire (c'est-à-dire une situation qui permet des modifications nocives de l'ADN). Imaginez, dit-il, une situation dans laquelle un G (guanine) dans l'ADN d'un organisme est muté en A (adénine). Si cette mutation entraîne un changement d'acide aminé nocif dans une protéine, la sélection naturelle devrait éliminer les individus porteurs de cette mutation. Mais si, par chance, l'organisme dispose d'un système d'édition de l'ARN, l'erreur dans l'ADN peut être corrigée par l'édition de l'ARN, ce qui revient à transformer le A en G. Si la protéine est essentielle à la vie, l'ARN doit être édité à des niveaux élevés de sorte que presque chaque copie soit corrigée.

 Lorsque cela se produit, "on est bloqué dans le système", explique M. Zhang. L'organisme est désormais dépendant de la machinerie d'édition de l'ARN. "On ne peut pas la perdre, car il faut que le A soit réédité en G pour survivre, et l'édition est donc maintenue à des niveaux élevés.... Au début, on n'en avait pas vraiment besoin, mais une fois qu'on l'a eue, on en est devenu dépendant".

Zhang soutient que ce type d'édition est neutre et non adaptatif. Mais d'autres recherches suggèrent que l'édition de l'ARN peut être adaptative.

L'édition de l'ARN peut fonctionner comme une phase de transition, permettant aux organismes de tester le passage de l'adénine à la guanine sans apporter de changement permanent à leur ADN. Au cours de l'évolution, les sites où les adénines sont recodées dans l'ARN d'une espèce de céphalopode sont plus susceptibles que les adénines non éditées d'être remplacées par des guanines dans l'ADN d'une ou de plusieurs espèces apparentées, ont rapporté les chercheurs en 2020 dans PeerJ. Et pour les sites fortement modifiés, l'évolution chez les céphalopodes semble favoriser une transition de A à G dans l'ADN (plutôt qu'à la cytosine ou à la thymine, les deux autres éléments constitutifs de l'ADN). Cela favorise l'idée que l'édition peut être adaptative.

D'autres travaux récents de Rosenthal et de ses collègues, qui ont examiné les remplacements de A en G chez différentes espèces, suggèrent que le fait d'avoir un A modifiable est un avantage évolutif par rapport à un A non modifiable ou à un G câblé.

(Tableau :  Quelle est la fréquence de l'enregistrement de l'ARN ?

Les céphalopodes à corps mou, notamment les pieuvres, les calmars et les seiches, recodent l'ARN dans leur système nerveux sur des dizaines de milliers de sites, contre un millier ou moins chez l'homme, la souris, la mouche des fruits et d'autres espèces animales. Bien que les scientifiques aient documenté le nombre de sites d'édition, ils auront besoin de nouveaux outils pour tester directement l'influence du recodage sur la biologie des céphalopodes.

Schéma avec comparaison des nombre de sites de recodage de l'ARN chez les animaux

J.J.C. ROSENTHAL ET E. EISENBERG/ANNUAL REVIEW OF ANIMAL BIOSCIENCES 2023 )

Beaucoup de questions en suspens

Les preuves pour ou contre la valeur évolutive du recodage de l'ARN proviennent principalement de l'examen de la composition génétique totale, ou génomes, de diverses espèces de céphalopodes. Mais les scientifiques aimeraient vérifier directement si les ARN recodés ont un effet sur la biologie des céphalopodes. Pour ce faire, il faudra utiliser de nouveaux outils et faire preuve de créativité.

Rangan a testé des versions synthétiques de protéines motrices de calmars et a constaté que deux versions modifiées que les calmars fabriquent dans le froid se déplaçaient plus lentement mais plus loin le long de pistes protéiques appelées microtubules que les protéines non modifiées. Mais il s'agit là de conditions artificielles de laboratoire, sur des lames de microscope. Pour comprendre ce qui se passe dans les cellules, Mme Rangan aimerait pouvoir cultiver des cellules de calmar dans des boîtes de laboratoire. Pour l'instant, elle doit prélever des tissus directement sur le calmar et ne peut obtenir que des instantanés de ce qui se passe. Les cellules cultivées en laboratoire pourraient lui permettre de suivre ce qui se passe au fil du temps.

M. Zhang explique qu'il teste son hypothèse de l'innocuité en amenant la levure à s'intéresser à l'édition de l'ARN. La levure de boulanger (Saccharomyces cerevisiae) ne possède pas d'enzymes ADAR. Mais Zhang a modifié une souche de cette levure pour qu'elle soit porteuse d'une version humaine de l'enzyme. Les enzymes ADAR rendent la levure malade et la font croître lentement, explique-t-il. Pour accélérer l'expérience, la souche qu'il utilise a un taux de mutation supérieur à la normale et peut accumuler des mutations G-A. Mais si l'édition de l'ARN peut corriger ces mutations, il est possible d'obtenir des résultats positifs. Mais si l'édition de l'ARN peut corriger ces mutations, la levure porteuse d'ADAR pourrait se développer mieux que celles qui n'ont pas l'enzyme. Et après de nombreuses générations, la levure pourrait devenir dépendante de l'édition, prédit Zhang.

Albertin, Rosenthal et leurs collègues ont mis au point des moyens de modifier les gènes des calmars à l'aide de l'éditeur de gènes CRISPR/Cas9. L'équipe a créé un calmar albinos en utilisant CRISPR/Cas9 pour supprimer, ou désactiver, un gène qui produit des pigments. Les chercheurs pourraient être en mesure de modifier les sites d'édition dans l'ADN ou dans l'ARN et de tester leur fonction, explique Albertin.

Cette science n'en est qu'à ses débuts et l'histoire peut mener à des résultats inattendus. Néanmoins, grâce à l'habileté des céphalopodes en matière d'édition, la lecture de cet article ne manquera pas d'être intéressante.

 

Auteur: Internet

Info: https://www.sciencenews.org/article/octopus-squid-rna-editing-dna-cephalopods, Tina Hesman Saey, 19 may 2023

[ poulpes ] [ calamars ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par miguel

discussion entre quêteurs métaphysiques

Eric Durieux : - Je prends le clavier ce soir pour rédiger un post un peu dérangeant. S'il n'est pas publié par les modérateurs je comprendrai. J'ai cependant besoin de  vous faire part de ma frustration. J’ai presque honte de ce que je vais écrire mais je crois qu’il est possible que ça soit utile.

Voici le problème : depuis ces quelques mois passés dans ce groupe, je me retrouve dans une situation où je suis d’avantage sceptique quant à l’existence et la réalité des shc qu’avant d’entrer dans le groupe. Je trouve la plupart des témoignages très oniriques et irrationnels, reflétant souvent la même incohérence que dans les rêves. Ils suscitent en moi une multitude de questionnements qui me fait de plus en plus douter de ces voyages (je veux dire du caractère simplement non onirique de ceux-ci). Quelques exemples :

1) La corde d’argent. Pourquoi doit elle être épaisse près du corps biologique et ultra fine à une certaine distance, alors qu’elle semble pouvoir s’étirer à l’infini. Ne peut elle pas être d’office fine dès le départ ? Puisque infinie… Ou épaisse tout le temps ? Et pourquoi ne diminue-t-elle pas proportionnellement à la distance de façon régulière si c’est la distance qui l’étire et la fait changer de taille ?

2) Autre point, les constructions et les bâtiments dans les autres mondes, qui semblent parfois défier les lois de la physique. Ok, mais si les lois de la physique sont différentes, pourquoi faire des bâtiments qui ont tout de même l’air de reposer sur une partie de ces lois ? Et pourquoi s’abriter dans des bâtiments si les habitants de ces mondes sont immatériels donc n’ont pas besoin de la protection matérielle des bâtiments.

3) Le côté candide et naïf de certaines situations qui ressemblent presque à des dessins animés. Des rencontres d’archétypes, d’êtres étrangement limités à des rôles prédéfinis comme dans les livres d’enfants.

4) Les projections, qui ont bon dos et permettent d’expliquer un peu n’importe quoi et n’importe quelles incohérences.

5) L’infinité des mondes (ça c’est  "normal") mais l’impossibilité de retourner facilement dans le même monde ou d’y retrouver un autre voyageur comme dans un rendez-vous fixé au préalable.

6) La manipulation des médiums par des êtres énergétiques. Rien ne dit, du coup, que le même phénomène ne se produit pas à un échelon supérieur et que les voyages ne sont pas une manipulation par une catégorie d'êtres encore supérieurs qui sont capables de nous faire croire à la lucidité et aux shc...

Si au final ces voyages ne sont rien de plus que des rêves, avec l’incohérence des rêves, mais de la lucidité en plus, ce ne sont que des rêves ultra lucides et pas de la sortie de corps. D’autant que les sorties dans le monde proche montrent régulièrement des incohérences par rapport au monde tangible biologique (meubles différents, objets à d’autres places). N’est-il pas possible d’au moins pouvoir voyager dans le même plan tel qu’il est exactement dans le corps afin de vérifier les choses rationnellement ?

Ou alors, est-ce que ce qui caractérise notre monde physique est précisément la rationalité et que celle-ci n’existe pas ailleurs ? Auquel cas on aurait LA raison pour laquelle les mondes physiques existent.

J'ai d'autres questionnements du même type mais je m'arrête là, plus le temps passe plus je suis perdu. Il y a pire qu'être quelqu'un qui ne croit pas aux shc parce qu'il ne veut pas y croire (le sceptique de base zététicien), Il y a celui qui comme moi commence à ne plus y croire parce qu'il a tellement envie d'y croire qu'il remarque tout ce qui nourrit sa peur que ce soit du vent.

Marc Auburn : - C'est quelque chose de très commun, et de très logique. Tant qu'on n'experimente pas soi-même, on ne peut être que sur des opinions, des avis, des croyances, des analyses. On ne peut strictement rien comprendre, et on pose des questions à l'infini.

Quelques soient les réponses qui sont fournies par les Voyageurs, elles ne seront pas comprises par beaucoup, et ils le savent. C'est pourquoi l'essentiel des Voyageurs demeurent silencieux. C'est une question récurrente pour moi: à quoi sert une telle page?

Ceux qui savent, qui sont de véritables Voyageurs peuvent échanger entre eux, et sélectionner UNIQUEMENT dans le groupe ces personnes là fut ma première idée, qui par ailleurs me revient régulièrement en tête.

Il y a aussi ceux qui s'interrogent non stop, qui sont parfois des "EXPERTS" du sujet, mais qui n'ont pas la moindre expérience et qui s'enferment dans des idées réductrices, ils ne peuvent pas concevoir que la structure de leur mental est la CAUSE unique de leur absence d'expérience.

Je vais ici dévoiler quelque chose : j'ai observé et compris qu'il existe une catégorie qui a de très faibles chances de Voyager durant la vie biologique, et qui devraient laisser tomber ce sujet: ceux dont le mental réduit à l'impuissance par une sur-activité "rationnelle" qui est en réalité une profonde méconnaissance souvent doublée de nœuds psychologiques bien serrés issus de traumas complexes.

Cette catégorie là constitue moins de 1%, mais elle devrait s'intéresser à autre chose, au moins tant que leur mental est verrouillé aussi fermement.

Quand leur "mort" viendra, ce qu'ils auront lu, entendu leur servira, mais probablement pas avant.

Du point de vue des Voyageurs, ces profils là sont ceux qui posent le plus de questions, qui analysent et déduisent non stop, et dont les réponses qui leurs sont apportées ne leur servent aucunement, par contre elles vont servir AUX AUTRES PROFILS.

Dans ces groupes sociaux, il y a ceux qui sont là pour se distraire, pour rêver. Les sujets leurs paraissent sympa, mais ils ne mettent rien en œuvre pour expérimenter eux-mêmes.

Et puis il y a les autres, ceux qui vont pouvoir vivre le Voyage, par un procédé ou un autre, au terme d'un mois ou de 5 ans, peu importe.

C'est pour ceux-ci que je garde cette page ouverte aux non Voyageurs.

Sinon ce serait une page de vierges qui parleraient sans cesse de sexualité et d'amour sans jamais pratiquer. Une sorte de réunion de loosers...

Néanmoins, pour TOUS les followers sans exception, je SAIS que ce qui est décrit ici servira immanquablement, au moment de la destruction de leur corps biologique, l'auteur de ce post y compris.

Mais bien amicalement, je lui conseille de s'intéresser à autre chose et d'oublier le Voyage pour le restant de son incarnation.

Aucune des réponses à ses incessantes questions ne lui permettra de vivre lui-même la chose, à un moment il faut laisser tomber, comme moi pour le dessin, le piano, le bricolage et un million d'autres trucs.

Borvo Conscience : - Eric Durieux Ton post n'est pas dérangeant, on voit que tu es une personne réfléchie. Seulement, on pressent bien qu'à travers les questionnements, tu cherches à te convaincre, où tu souhaites être rassuré. À un niveau individuel, il n'y a pas d'enjeu majeur, ce n'est pas grave, let go. Si tu ne crois plus, tant mieux, tu vas pouvoir commencer le vrai taff et expérimenter sans te prendre la tête quand tu as envie et comme tu as envie ou pas du tout.

Je te réponds sur les points, mais ça ne sera pas exhaustif. Marc a raison sur le fait que certains traits favorisent la production de sortie hors du corps comme l'absorption, l'imagination, susceptibilité hypnotique et quelques autres qui vont travailler ensemble et permettre à un sujet de :

- Se relaxer vite et bien,

- Calmer ses pensées vite et bien,

-  Avoir une imagination plus puissante (à considérer comme un organe de la conscience)

Si on n'a pas les traits adéquats, cela sera plus difficile, mais pas impossible.

Concernant le rêve et la sortie hors du corps, des études ont quand même été menés quand les neuroscientifiques/psychiatre/psychologue en avait quelque chose à faire.

On a les expériences avec des sujets voyageurs des Dr Twemlow, Tart ou Krippner. Je donne les noms au cas où tu souhaiterais regarder).

En se fondant sur leurs expériences sur des sujets doués, ils ont pu remarquer que l'activité corticale n'était pas la même entre la sortie hors du corps et le rêve.

SHC :

- Activité corticale diversifiée par rapport aux rêves (theta, Delta Alphaloide pour la SHC et principalement Beta et Theta pour le rêve)

- Peut se dérouler à n'importe quel stade du sommeil, même depuis l'éveil.

- Pas de MOR (mouvement oculaire rapide) pendant la SHC

- Processus secondaire (cohérence dans la sensation de réalité) contrairement au rêve (processus primaire)

- Si stimulus extérieur, la shc s'arrête aussitôt, tandis que durant le rêve et le rêve lucide, il y a une intégration du stimulus dans le scénario du rêve/rêve lucide

On a quand même des indices objectifs que la shc et le rêve/rêve lucide sont deux choses différentes. Bon, ça, c'est si on veut rester à raz la pâquerette, l'expérimentation nous donne des données en plus qu'on n'aurait pas autrement.

Enfin, et cela ne concerne que moi. La nature de l'environnement onirique et l'environnement du voyageur est la même. C'est une substance psychique qui réagit à nos pensées et nos émotions. Elle prend la forme d'instance personnelle lors des rêves et se nourrit de nos expériences. Le rêveur lucide restera sous l'empire de cette instance, le voyageur hors du corps accède lui aux réseaux psychiques dans sa globalité. Un réseau qui dans sa nature est une sorte de conscience globale qu'on peut appeler Cosmos ou Akasha. C'est pour cette raison que le rêve et la sortie hors du corps sont par ailleurs proches et très distinctes simultanément.

Je fais avec la numérotation de tes questions pour essayer t'apporter un point de vue. Toutefois, je n'aurai pas les réponses estampillées 100 % pure vérité. On est bien incapable de le faire, mais on ne peut pas non plus nous le reprocher, tu me diras. Mais j'espère que ça t'aidera :

1) Tu sembles penser que la corde d'argent doit obéir à une logique, on peut l'observer et la toucher. On est donc sûr des observations subjectives, on n'a aucune idée de l'anatomie de ce truc s'il y en a une.

Déjà d'autres expérienceurs ne voit pas de corde d'argent, qui nous dit que ce n'est pas une forme pensée, une croyance matérialisée ? Enfin, quand tu prends du caramel chaud et que tu le travailles en l'étirant, tu observes bien que la pâte épaisse s'affine. Analogiquement, cela correspond et on peut que spéculer.

2) Je n'ai jamais eu d'habitation dans la contrepartie éthérique qui défiait les lois de la physique classique personnellement. Concernant les extraphysiques qui ont besoin de bâtiments, je dirai simplement qu'il serait assez naïf de penser que la réalité que nous expérimentons avec ce corps physique soit le seul à être tangible.

3) Idem, si ça sort des expériences du groupe, je ne pourrai pas y répondre. Personnellement, les êtres que j'ai pu rencontrer sont loin d'être limités xD

4) Les projections sont une dynamique importante, pas une explication qu'on invente. C'est un vécu. Comme je le répète souvent, la sortie hors du corps permet d'accéder à un espace psychique qui relit tout le vivant dans un genre d'arrière monde, un espace PSYCHIQUE. Les projections sont juste la conséquence de l'activité d'un organe imaginatif de la conscience qui tend à s'exprimer (peur et désir).

Avec l'expérience, on projette moins. Seulement ce sujet mérite beaucoup de développement pour en expliquer tous les détails, mais de façon concise, oui la projection a un bon dos bien musclé.

5) Les rendez-vous ne sont pas impossibles. Mais, écoutes, il faut des amis déjà ;-).

On ne contrôle pas tous la translocalisation. Généralement, tu vas poser une intention pour un lieu et cela sera l'intention sous-jacente ou inconsciente qui aura la priorité. Il faut rendre visite aux amis à vol d'oiseau si je puis me permettre.

6) Bah non, on peut atteindre des pointes de lucidité qu'on peut à peine concevoir et qui ferait passer ton expérience de la réalité pour une blague onirique. Combien de guides ou de pseudos gars haut dans la hiérarchie céleste, j'ai laissé derrière moi ? Ce que tu nous dis là est plutôt à mettre en rapport avec la personnalité de base du voyageur.

Autant le médium à pas forcément le choix, il capte l'info et c'est tout. Autant un voyageur peut prendre par le col un extraphysique. Cela dépendra vraiment de qui tu es à la base, une personne qui va facilement s'intégrer dans des systèmes (maitre/apprentis dominé/dominant). Ainsi, sans vouloir généraliser, parce qu'on est tous différents, on va vers plus d'indépendance, même si on n'est jamais à l'abri.

Enfin, si on est quand même manipulé comme tu le dis, et alors ?

Dans ce scénario-là, on s'en rendrait pas compte, on fait quoi alors ? On arrête de voyager et de se poser des questions ? On se convertit aux gnosticismes en espérant un jour cassé la gueule au démiurge ?

Pour conclure, si les témoignages t'ont mis dans une détresse intellectuelle par rapport à la SHC, c'est positif. Si tu étais venu gober tout et n'importe quoi, cela aurait été déprimant. Ce qu'il faut retenir c'est qu'un témoignage n'est qu'un témoignage. Le mien n'a pas plus de valeur parce que je serai un voyageur. On vit des choses, on est assez intelligent pour voir qu'il y a une ù^$*ù^ dans le potager et que c'est plus qu'un rêve lucide (principe de comparaison).

Mais, ce sont uniquement des témoignages pouvant servir de base à une réflexion sur la conscience, la réalité et notre rapport à la vie et rien d'autre. Par ailleurs, il est indéniable que certains vont prendre un rêve particulièrement lucide pour une sortie hors du corps sur le groupe, mais ce n'est pas grave.

Je pense que tu serais intéressé par la lecture de Thomas Campbell, c'est un physicien et un voyageur hors du corps. Le fait qu'il soit physicien est une plus-value intéressante également Ervin Laszlo, un philosophe des sciences qui a développé une réflexion sur le champ Akashique comme toile de fond d'un web cosmique. Une toile accessible via diverses expériences comme le rêve, rêve lucide, sortie hors du corps et autres.

J'avais une tasse de café et un peu de temps pour répondre, en espérant que cela ait été utile.

Callirhoé Déicoon : - Merci Eric pour ce post. Je pense que chaque niveau de réalité est un leurre à dépasser car la compréhension progresse et s’affine. Et qu’il faut admettre que quand on est à un niveau A, le niveau B est en dehors de notre compréhension.

“j’ai eu l'illusion de regarder un coucher du soleil, ce qui m'a laissé à penser que l'horizon pourrait être le bout. Mais tout cela n'est qu'illusion, parce que, si l'on progresse dans les niveaux, de nouveaux niveaux apparaissent.”

La zone d’après-vie contiendrait des environnements terrestres créés pour un certain but, du moins c’est comme ça que c’est décrit dans les bouquins de Monroe. Ce n’est en aucun cas la “réalité ultime”. Juste un leurre de plus, fait pour accueillir les décédés. Donc, c’est conforme à leurs habitudes. “to ease their mind”…

Les yogi le disent aussi, qu’il y a une zone très attractive mais que le but n’est pas d’y rester. Qu’il faut aller de l’avant.

Le problème c’est que c’est une zone immense donc on a l’impression qu’il n’y a que ça au-delà de notre plan, or ce n’est pas vrai, des gens ont ramené des témoignages d’une zone d’énergie pure qui se “situe” après une seconde mort mais, c’est si “loin” et difficile d’en ramener des informations qu’il n’y a presque rien à ce sujet.

Je ne parle pas ici d’autres mondes/dimensions que Marc semble parcourir et qu’il est impossible de situer sur la cartographie Monroe. Le problème est bien là d’ailleurs, les voyageurs n’ont pas vraiment les moyens de savoir où ils sont exactement. Je comprends bien le principe des bulles de réalité locales décrit par Marc mais, ça ne m’aide pas à concevoir la big picture. Cependant je pense que c'est très difficile de donner rdv dans un monde X ou Y à quelqu'un qui lui même n'y a pas été d'abord tout seul ! Or il semble qu'on aille à tel ou tel endroit pour des raisons qui nous échappent et qui sont peut-être liées à notre itinéraire personnel... Donc on comprend la difficulté du truc. Des sorties collectives ont été effectuées par des TMI graduates mais, dans des zones connues par eux au préalable et "proches" du plan physique.

En tout cas. Pour ceux qui arrivent à voyager sans charge epsilon… c’est génial et probablement la meilleure expérience de ce qu’on peut avoir en étant incarné. Mais eux aussi ils auront leur propre progression à faire une fois morts. De ce qu’on peut avoir comme réponses d’entités d’autres dimensions, ça semble infini. Moi je m’interroge sur la subjectivité de tout ça. Je ne remets pas en question la réalité de ça mais justement, je me demande si l’univers n’est pas en fait perceptible uniquement de façon subjective. Même si les consciences désincarnées communiquent peut-être sur leurs perceptions individuelles, je me demande si la compréhension progressive de la réalité n’est pas en fait quelque chose de subjectif et intime dans son essence. Et si les différents consensus n’ont une solidité qui n’est en fait que le fruit d’une subjectivité qui s’accorde entre les consciences à tel instant et tel endroit. Et qui dépend aussi du niveau de “densification” (cf consensus relatifs sur la zone d’après-vie, par exemple sur la Library et son emplacement, mais vue avec différentes architectures par les gens : donc on pourrait dire, consensus archétypal avec variantes subjectives sur l’apparence)

Par contre je ne remets pas en question l'existence des projections puisque pour moi c'est tout-à-fait logique notre propre conscience créatrice (et mal entraînée, surtout au début des OBE) mette un peu le dawa mais il y a des techniques pour différencier les projections d'une rencontre avec une autre entité aussi réelle que soi.

Pour ce qui est du plan physique qui semble présenter des différences d’un point de vue out of body, en effet c’est troublant mais ça peut s’expliquer je pense par des caractéristiques de la conscience qui sont encore mal cernées. Ça n’exclut pas la présence d’éléments vérifiables qui permettent donc de faire des reality checks une fois le retour dans le corps effectué. Plein de gens l’ont fait  ;-).

Il y a aussi la vision de son propre corps éthérique par ses yeux physiques qui peut arriver, comme Thomas Moine l’a dit dans son super com et comme Robert Bruce l’a vécu aussi et le raconte dans Astral Dynamics.

Mais, c’est sûr que si tu es venu sur ce groupe en pensant trouver des preuves par A plus B, et des témoignages tous concordants sur les mêmes zones de l’univers mental, etc etc… Tu es forcément déçu et perdu, mais c’est parce que la conscience et les créations qui en sont issus (les univers) ne fonctionnent pas comme notre cerveau physique appréhende les choses.

Je suis d’accord avec Marie-Jeanne, je ne pense pas qu’essayer de comprendre comment fonctionne tout ça aide à faire des expériences, au contraire. Donc dans l’idéal, il faudrait se concentrer sur la pratique. Mais je te comprends car je suis comme toi, j’ai pas pu m’empêcher d’essayer de comprendre de façon intellectuelle, et donc je me suis plongée dans Robert Monroe, et Robert Bruce, entre autres. Hyper intéressant. Mais, la partie qui m’a aidée à sortir n’a pas été le descriptif de comment c’est foutu là-bas, je suppose même que c’était contre-productif puisque j’ai gambergé à mort là-dessus (j’ai même fait un énorme mapping de l’astral sur un schéma). La partie qui m’a aidée a été l’information et les techniques pratico-pratiques que ces 2 auteurs fournissent également en parallèle. Et je pense que quand on se lance dans ce training, il vaut mieux laisser tomber les circonvolutions théoriques. Car on ne pourra pas tout comprendre anyway, la cogitation sera sans fin. Alors que ce qu’on cherche à activer est l’“autre cerveau”.

Auteur: Internet

Info: Fil FB de Marc Auburn, 21 août 2023

[ métempsychose ] [ décorporation ] [ voyage hors du corps ] [ dubitation ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie occidentale

Le symbolique, l'imaginaire et le réel : Lacan, Lévi-Strauss et Freud

" Tout comportement est communication." Gregory Bateson

Contrairement à l'expérience de la psychanalyse aux Etats-Unis, Freud arriva très tard en France où il fut plus ou moins réfuté par Sartre dans Son "Etre et Néant" avant même son arrivée. Curieusement, c'est à l'apogée de l'existentialisme et de la psychanalyse existentielle, dans les années cinquante et au début des années soixante, qu'un analyste français inconnu de la génération Sartre entama une relecture radicale des textes freudiens.
Son travail devait avoir une telle influence dans les années soixante-dix qu'il sauva entièrement Freud de l'orientation médicale positiviste apportée par la société psychanalytique parisienne, et réintégra son travail dans ce que les Français appellent encore les sciences humaines.
Il s'agit de Jacques Lacan, pilier de l'Ecole freudienne de Paris - styliste hermétique et obscur, conférencier envoûtant, penseur intransigeant et inflexible, profondément préoccupé par ses propres écrits et prérogatives - qui fut interdit par la Fédération internationale lorsque lui et ses collègues, principalement du à des rivalités internes, quittèrent la société parisienne en 1953.
Il y a sans doute plus d'anecdotes dénigrantes, et probablement calomnieuses, qui circulent sur Lacan au sein de l'incestueux climat intellectuel parisien que sur tout autre penseur influent. Mais si le travail de Lacan signifie quelque chose, nous devons séparer les idiosyncrasies personnelles bien connues de Lacan de la contribution unique qu'il apporta à notre compréhension de Freud.

Bien que Lacan ait commencé son oeuvre originale à la fin des années trente, sous l'influence de la phénoménologie et de l'existentialisme husserliens, ce n'est que dans les années soixante qu'il commença à être réellement écouté en France, et ses écrits ne commencèrent à arriver en Angleterre et aux Etats-Unis que récemment. S'attaquant à l'"intellectualisme" français et au culte de l'"expert", à l'"empirisme", tout comme à la "biologisation" britanniques et à l'"adaptation" et au "behaviorisme" américains dans une série de polémiques cinglantes, son seul travail a rendu impossible, à tout penseur français qui se respecte, de continuer à ignorer les textes de Freud. L'intégration de ce texte dans la culture du cogito cartésien a déjà eu des résultats surprenants et féconds. Reste à savoir ce que Lacan va faire passer aux Etats-Unis - où l'enthousiasme même de l'acceptation initiale de Freud par les Américains eut tendance à réduire ses idées à des banalités et ses théories quasi au statut de jeu social.

Nous découvrons maintenant, par exemple, un nouveau retour à la théorie de Breuer-Freud sur la catharsis thérapeutique - autrefois popularisée en tant que "psychodrame" - sous une nouvelle forme de "désublimation répressive" : thérapie du "cri primal". Mais les héros des talk-shows de fin de soirée vont et viennent avec une régularité monotone et, en fin de compte, il nous reste toujours les grandes œuvres du génie pour y méditer : Hegel, Marx, Freud, Dostoïevski, Rousseau, Balzac, pour ne citer que quelques-uns de nos prédécesseurs les plus récents. Et ce que nous découvrons, c'est que nous devons apprendre à lire avant de parler, que nous devons apprendre à les lire d'un point de vue social critique, aussi libre de préjugés ethnocentriques, socioéconomiques et culturels que possible.
En un mot, nous devons apprendre à lire dans une perspective non académique, dans la perspective d'une expérience de vie où ces auteurs et leurs quêtes personnelles font partie de notre quête individuelle et collective. Je préférerais lire l'Interprétation des rêves comme un roman, par exemple, ou le célèbre cas du docteur " psychotique " Schreber comme de la philosophie, ou les Frères Karamazov comme une étude métapsychologique, que l'inverse. Lacan a contribué à rendre ce genre de lecture possible.
Une grande partie de ce que Lacan cherchait à accomplir avec ses étudiants dans les années cinquante n'a plus grand intérêt aujourd'hui, car il s'agissait d'attaques contre la technique thérapeutique d'un groupe de psychanalystes français très peu doués, objectivées et liés à la culture. Mais son attaque contre la "psychologie de l'ego" de praticiens comme Hartmann, Kris et Lbwenstein, ou le "behaviorisme " de Massermann, est toujours valable (Lacan, 1956a ; Wilden, 196Sa : 1-87). Et ceux qui s'y sont opposés avec tant de véhémence en France constatent aujourd'hui qu'ils ne peuvent rejeter ses analyses critiques des textes freudiens et s'appeler encore Freudiens. Mais si Lacann inspira une école française d'analyse qui se veut anti-institutionnelle, anti-psychiatrique et profondément critique à la fois à l'égard de "l'ajustement" de l'individu et de ceux que Marcuse nommait "révisionnistes néofreudiens", il n'a probablement pas fait plus pour les pratiques analytiques que ce qui a été réalisé par des thérapeutes comme Laing, Esterson et Cooper, au Royaume-Uni, et par des gens comme Ruesch, Bateson, Haley, Weakland ou Jackson, aux Etats-Unis.
De plus, la psychanalyse est un privilège socio-économique réservé aux personnes qui ont argent et loisirs pour se faire plaisir. La question de "la guérison" est en tout cas tout à fait débattable, et nous savons bien que la psychologie, la psychiatrie et la psychothérapie en général ont toujours été les véhicules des valeurs du statu quo (à l'exception extraordinaire de Wilhelm Reich, dont les théories ne correspondent malheureusement jamais au niveau élevé de son engagement social).
Et comme la plupart d'entre nous apprenons à vivre avec nos blocages, il est alors très peu probable que nous devions apprendre un jour apprendre à vivre avec les effets aliénants de notre société unidimensionnelle et technologique en ayant à nous préoccuper de psychanalyse ? En tout état de cause, personne, en quête d'une perspective véritablement critique, ne tentera de construire une théorie de l'homme et de la femme essentiellement basée sur la psychologie humaine, car le "discours scientifique" de la psychologie vise à nier ou à omettre le contenu socio-économique collectif à l'intérieur duquel les facteurs psychologiques jouent leur rôle.
J'essaierai de montrer plus loin que l'axiomatique fermeture de la plupart des psychanalystes dans la plénitude de ce contexte - et, je crois, dans sa primauté - génère des problèmes purement logiques dans la théorie, problèmes dont elle n'est pas, logiquement, équipée pour les surmonter. Ainsi, ce qui apparaît dans la théorie logico-mathématique de Bateson de la " double liaison " (chapitre V) comme une oscillation, apparaît nécessairement en psychanalyse, sous une forme ou une autre, comme une théorie de la répétition. Lacan, par exemple, fit appel à Kierkegaard (Repetition, 1843) pour étayer son interprétation de Freud, et pourtant si l'on regarde de près les écrits de Kierkegaard, en particulier les siens propres ou ceux également publiés en 1843, on découvre que la théorie entière dépend de l'incapacité de Kierkegaard à dépasser, de manière logique ou existentielle, les injonctions (doubles liens) paradoxales qu'il reçoit de son environnement familial et social. Par conséquent, le voilà condamné à osciller sans cesse entre un "soit" et un "ou". Ce qui apparaît dans la théorie de Bateson comme une réponse nécessaire aux injonctions émanant des rapports de pouvoir et de domination dans l'ordre social, et qui apparaît généralement dans la psychanalyse, et plus particulièrement chez Lacan, comme de la "compulsion itérative". Ainsi, soit la responsabilité est renvoyée à l'individu (par les "instincts" ou quelque autre métaphore de ces constructions biomécaniques), soit, comme chez Lacan, elle se transforme subtilement en une forme "d'ordre naturel des choses", via les paradoxes que le langage crée dans la condition humaine.
Contrairement à la théorie du double lien, les deux points de vue supposent une homogénéité dans la société qui n'existe tout simplement pas et servent à rationaliser les dominations en refusant de traiter la relation entre pouvoir, connaissance et oppression, ils ne voient pas la différence, dans la société, entre ce que Marcuse appela "répression" et "sur-répression". Malgré l'incompréhension de Marcuse à l'égard du Freud "clinique" - et malgré sa dépendance à la théorie bioénergétique des instincts - la distinction est importante. Peu de théoriciens américains, par exemple, envisageraient sérieusement le calvaire des minorités américaines dans leur lutte pour les droits socio-économiques élémentaires, simplement en termes de "compulsion itératives" telle une révolte contre le père (ou la mère).
Il m'est impossible de parler de Freud ou de Lacan sans utiliser les contributions que Bateson et Marcuse - de manières différentes et même mutuellement opposées - ont apportées à notre compréhension des relations humaines. Il faut d'une part traiter la perception de la psychanalyse et de la psychologie comme des rationalisations des valeurs de notre culture (l'oppression des femmes, en particulier), et d'autre part, montrer comment elles peuvent contribuer à une dévalorisation de ces valeurs. L'analyse de Bateson des relations de pouvoir par la double contrainte est, je crois, essentielle à la théorie sociale et psychologique, et je ne sais comment expliquer la théorie de l'imaginaire de Lacan sans elle. En tout cas, Freud décrit la relation entre l'ego et l'idéal de l'ego en des termes similaires à ceux d'une double liaison (double bind, dans The Ego and the I, Standard Edition, XIX, 34) : "Tu devrais être ainsi (comme ton père), mais tu ne dois pas être ainsi (comme ton père)."
Dans le monde contemporain de la contestation, il n'y a aucune réponse à la façon dont la psychanalyse est régulièrement - et nécessairement - remise en question, si le Freud dont nous parlons est le déterminant hydraulique, instinctif, électromagnétique et entropique que nous pensions tous connaître.
Il y a une réponse, cependant, si nous découvrons la perspective communicationnelle et linguistique derrière l'acceptation explicite ou implicite par Freud des principes mécanistes de la science physique et économique du XIXe siècle. Après tout, la psychanalyse est bien la "cure parlante", comme Lacan n'a jamais manqué d'insister dessus, et les pages des écrits de Freud s'intéressent avant tout au langage. Bien plus intéressante que la théorie de l'ego, de la personnalité et du surmoi, par exemple, est la conception que Freud a de l'inconscient et du rêve comme des scènes (Darstellungen) de distorsions (Entstellungen) et de (re)présentations (Vorstellungen). Mieux que coller à la préoccupation contemporaine pour les systèmes et les structures que la "psychologie de l'ego" de Freud, dans son premier modèle de processus primaires et secondaires. Plus significative que son déterminisme il y a sa théorie de la "surdétermination" du symptôme ou du rêve, qui est un concept proche de la redondance en théorie de l'information et de l'équifinalité en gestaltisme et biologie.
Si nous devons rejeter les principes mécanistes du principe du plaisir, nous pouvons encore découvrir le modèle sémiotique des niveaux de communication dans les premiers travaux de Freud. Plus utile que la "deuxième" théorie du symbolisme (dérivée de Stekel), qui assimile les icônes ou les images (analogues) aux symboles sexuels (Jones, Ferenczi, et al.), est la "première" ou théorie "dialectique", qui dépend de la condensation et du déplacement des signes (Zeichen). Le rêve doit être traduit de l'image en texte avant de pouvoir être interprété (par le rêveur), et la refoulement est, comme le disait Freud en 1896, "un échec de la traduction". De plus, aucune théorie actuelle de la mémoire n'est essentiellement différente de la métaphore originale de Freud sur le "traçage" de voies via les traces de mémoire dans le cerveau.Je reviendrai dans un instant sur une description plus précise de l'orientation sémiotique et linguistique de Freud. Le fait est que, sans le travail de Lacan, je doute que nous aurions découvert ce Freud - bien que l'analyse de Karl Pribram du Projet neuropsychologique pour une psychologie scientifique (1895) aille dans le sens d'une relecture de Freud au moins au niveau de la théorie de l'information et du feedback (Pribram, 1962).
Le problème avec Lacan, c'est qu'à première vue, ses écrits sont presque impossibles à comprendre. Ses Ecrits (1966) - et seul un Lacan pouvait avoir l'orgueil d'intituler son oeuvre simplement "Écrits" - titre peut-être plus à lire comme "discours de schizophrène" - ou comme de la poésie ou autres absurdités, selon vos préjugés et votre tendance au transfert positif ou négatif - que tout autre.
L'hermétisme de Lacan ne peut être excusé - pas plus que son attitude envers le lecteur, qui pourrait s'exprimer ainsi : "aime-le" ou "c'est à prendre ou à laisser". Mais bien que la destruction personnelle de la syntaxe française par Lacan le rende assez ardu même pour le lecteur français, il y a au moins une tradition intellectuelle suffisamment homogène à Paris qui fait que Lacan y est bien moins étranger qu'en Grande-Bretagne ou aux Etats Unis. La tradition phénoménologique, existentialiste et hégélienne-marxiste en France rend moins nécessaire d'expliquer ce que vous entendez par Hegel, ou Husserl, ou Heidegger, ou Kojéve, ou Sartre. Et la plupart des gens reconnaîtront de toute façon une idée, même si vous ne mentionnez pas la source, ou si vous citez ou paraphrasez sans référence, car ce genre de "plagiat" est généralement acceptable en France.
Fait assez significatif cependant, Lacan n'aurait pas pu réaliser son analyse de Freud sans l'influence de l'école de linguistique suisso-américano-russe représentée par Roman Jakobson, qui a longtemps témoigné de l'influence du formalisme russe et du linguistique structurel de Saussure aux Etats-Unis. Mais même cette influence est parvenue indirectement à Lacan. L'influence la plus importante sur Lacan fut celle de l'anthropologue structurel français Claude-Lévi-Strauss, qui rencontra et travailla avec Jakobson à la New School for Social Research de New York, en 1942-1945.

Lévi-Strauss tend à ne pas être très apprécié par les anthropologues américains et britanniques qui sont redevables à la tradition analytique et dite empiriste, ce qui en dit long sur lui. Il est à l'origine d'une nouvelle méthodologie et d'une épistémologie d'accompagnement en sciences humaines en France, généralement appelée "structuralisme". (Aujourd'hui, cependant, le terme désigne simplement une mode, un peu comme l'existentialisme.) Le structuralisme, dans le sens d'une méthodologie non empiriste, non atomiste, non positiviste des lois de la relation, est d'autre part complété par les avancées en théorie des systèmes généraux, en cybernétique non mécanique, en théorie de la communication et en études écologiques. Tant la nouvelle approche structurelle que la nouvelle approche systémique-cybernétique semblent parler en fait d'une véritable révolution épistémologique dans les sciences de la vie et les sciences sociales, dont nous entendrons beaucoup plus parler au cours de la prochaine décennie (si nous y survivons, bien sûr).
Lévi-Strauss chercha à utiliser les travaux des phonologues structuraux sur "l'opposition binaire" des phonèmes en tant que modèle pour l'analyse des mythes et des relations et échanges au sein des sociétés dites "primitives" - dont il a ensuite remis en question le supposé "primitivisme". Constatant qu'un nombre relativement faible d'"oppositions" entre "traits distinctifs" (graves/aigus, voix/silence, etc.) sont suffisants pour former l'infrastructure acoustique de toute langue connue, Lévi-Strauss tenta de découvrir des ensembles analogues d'oppositions dans les systèmes de parenté et dans les mythes. Ses travaux les plus récents se sont concentrés sur le mythe en tant que musique.
Avec tous ces machins douteux dans son approche, Lévi-Strauss a néanmoins introduit un type de signification dans l'étude du mythe - auparavant presque exclusivement axé sur le contenu plutôt que sur la forme - là où ça n'existait pas avant. Comme pour l'œuvre de Lacan - ou celle de Freud - le principal problème du structuralisme lévi-straussien ne réside pas dans la méthodologie, mais dans son application, c'est-à-dire dans les revendications universelles formulées en son nom.
Je reviendrai sur la critique plus détaillée du "structuralisme" dans les chapitres suivants. Pour l'instant, il suffira de donner un exemple bref et purement illustratif de l'utilisation par Lévi-Strauss du concept d'"opposition binaire" dans l'étude du mythe (Lévi-Strauss, 1958 : chap. 11).
Pour lui, le mythe est une représentation diachronique (succession dans le temps) d'un ensemble d'oppositions synchroniques (intemporelles). Il croit que la découverte de ces oppositions synchroniques est une déclaration sur la "structure fondamentale de l'esprit humain". Dans les chapitres suivants, j'analyserai et critiquerai le terme "opposition" - qui cache les catégories de "différence", "distinction", "opposition", "contradiction" et "paradoxe" . Je critiquerai également le concept de relations "binaires" " - qui dissimule toute une série de malentendus sur la communication analogique et numérique en général, et plus particulièrement sur "non", "négation", "exclusion", "zéro" et "moins un", ainsi que sur la relation entre "A" et "non-A". J'essaierai également de démontrer l'idée fausse que Lévi-Strauss se fait de la confusion entre "esprit", "cerveau" et "individu". Ceci est étroitement lié à la conception de Piaget de l'organisme comme "structure paradigmatique", et à l'incapacité, dans la plupart des travaux actuels en sciences de la vie et sciences sociales, de comprendre le problème logico-mathématique et existentiel des frontières et des niveaux dans les systèmes ouverts de communication et d'échange (systèmes impliquant ou simulant la vie ou "esprit", systèmes vivants et sociaux).

La méthode de lecture des mythes de Lévi-Strauss est entièrement nouvelle, simple à comprendre, globale et satisfaisante sur le plan esthétique. Il suggère de regarder le mythe comme on regarderait une partition d'orchestre dans laquelle les notes et les mesures à jouer en harmonie simultanée par différents instruments se sont mêlées à la cacophonie d'une succession linéaire. Ainsi, si nous représentons cette succession par les nombres 1, 2, 4, 7, 8, 2, 3, 4, 6, 8, 1, 4, 5, 7, nous pouvons rétablir la partition originale en mettant tous les nombres semblables ensemble en colonnes verticales :

112234444567788

Cette matrice est exactement ce que l'on peut construire dans l'analyse phonologique d'une phrase, où l'on peut montrer qu'une séquence linéaire de mots se construit sur une succession d'oppositions binaires entre des éléments acoustiques distinctifs.
Malheureusement pour ce que Lévi-Strauss considère comme la clé de voûte de sa méthode, l'analogie qu'il fait entre phonologie structurelle et mythe est fausse, alors que sa méthodologie est extrêmement fertile. Ce problème met en évidence la difficulté centrale de l'utilisation de l'œuvre de Lévi-Strauss et de Lacan. Il faut montrer que les sources supposées de leurs nouvelles contributions aux sciences sociales ne sont pas ce qu'elles pensent être ; il faut démontrer où et comment leurs points de vue servent une fonction idéologique répressive ; et il faut montrer l'inadéquation à la fois de nombreux axiomes de la méthode et de nombreuses applications supposées.

Sans développer une critique détaillée à ce stade, on peut dire d'emblée que c'est une erreur de traiter un système d'oppositions sans contexte entre caractéristiques acoustiques des "bits" des informations (traits caractéristiques) comme étant isomorphe avec un mythe, qui est un système avec un contexte. Le mythe est nécessairement contextuel parce qu'il manipule l'information afin d'organiser et de contrôler certains aspects d'un système social, et il ne peut donc être considéré comme isolé de cette totalité. Contrairement aux "mythemes" de Lévi-Strauss ("éléments constitutifs bruts" du mythe, par analogie avec le "phonème"), les phonèmes sont des bits d'information insignifiants et non significatifs. Les phonèmes et les oppositions phonémiques sont les outils d'analyse et d'articulation (dont la caractéristique fondamentale est la différence) dans un système dans lequel signification et sens sont en dehors de la structure phonémique. Mythemes' et oppositions' entre mythemes, au contraire, impliquent à la fois signification et sens : ils ont 'du contenu'. Lévi-Strauss traite le mythe comme s'il s'agissait d'une langue représentative sous la forme d'une grammaire sans contexte, ou traite les mythemes comme des "informations" au sens technique des systèmes quantitatifs fermés de la transmission des informations comme étudiés par Shannon et Weaver. La science de l'information concerne l'étude statistique des processus stochastiques et des chaînes de Markov (chapitre IX) - et Chomsky a démontré qu'aucun langage connu ne peut être correctement généré à partir d'une grammaire modelée sur ces processus. Il a également été démontré que le langage est un système d'un type logique supérieur à celui qui peut être généré par des algorithmes sans contexte (grammaires).

Bien que Lévi-Strauss parle du mytheme comme d'un caractère "supérieur" à tout élément similaire du langage, le modèle de l'opposition phonémique binaire reste ce qu'il considère comme le fondement scientifique de sa méthode. Ainsi le mytheme devient l'équivalent d'un outil d'articulation (un trait distinctif) employé par un système de signification d'un autre type logique (langage). Lorsque nous cherchons à découvrir ce qu'est cet autre système chez Lévi-Strauss, nous trouvons cette catégorie de "pensée mythique". Mais la pensée mythique est déjà définie sur la base des mythemes eux-mêmes. C'est un système d'articulation des oppositions par "une machine à supprimer le temps" (le mythe). Ce qui manque dans ce cercle, c'est le contexte réel et matériel dans lequel le mythe surgit et auquel il fait référence.
Cependant, Lévi-Strauss insistera sur le fait que sa méthodologie, contrairement au formalisme pur, est bien "contextuelle" (Lévi-Strauss, 1960a). Il se réfère constamment aux catégories de parenté, au contexte zoologique et botanique du mythe et aux caractéristiques des entités matérielles ("crues", "cuites", "pourries" et ainsi de suite). En réalité, cependant, toutes les "entités matérielles" et les "relations matérielles" qu'il emploie parviennent à cette analyse déjà définie, de façon tautologique, comme des catégories de pensée mythique. Par conséquent, le "contexte" qu'évoque Lévi-Strauss est invariablement le contexte des "idées" ou de "l'esprit", qu'il conçoit, comme Kant, comme étant un antécédent de l'organisation sociale, tant épistémologiquement qu'ontologiquement. Au sein de ce cadre idéaliste, il fait ensuite un saut rapide vers les catégories matérielles de la physique et de la chimie, qu'il évoque régulièrement comme le fondement ultime de ses catégories idéales.

Mais entre le contexte des idées et le contexte des atomes et des molécules (ou même celui du code génétique) il manque un niveau d'organisation unique mais énorme : le contexte socio-économique de la réalité humaine. Et ce niveau d'organisation contient un paramètre que l'on ne retrouve pas en physique, en biologie, en sciences de l'information, dans les langages, les idées, ou les mythes considérés comme systèmes d'opposition synchrones : la ponctuation du système par le pouvoir de certaines de ses parties à en exploiter les autres (en incluant la "nature" même). Toutes les idées, tous les électrons et "bits" d'information sont en effet égaux, aucun d'entre eux n'est différent des autres, et aucun groupe n'exploite les autres. Et alors que dans les systèmes qui n'impliquent pas l'exploitation sociale, les mythes peuvent à juste titre être considérés comme remplissant une fonction d'organisation "pure" ou "neutre", dans tous les autres systèmes, les mythes deviennent la propriété d'une classe, caste ou sexe. Un mythe qui est la propriété d'une classe est en fait une définition de l'idéologie. Le mythe cesse alors de servir la fonction neutre d'organisation pure et simple ; il sert de rationalisation d'une forme donnée d'organisation sociale.
L'étude structurelle du mythe est, comme Lévi-Strauss l'a souvent dit, une autre variante des mythes qu'il analyse. Comme eux, c'est un système d'oppositions binaires. Mais ce n'est pas une mécanique pour la suppression du temps, mais pour la suppression de l'histoire. Et puisque le "structuralisme" est effectivement la propriété d'une classe, nous pouvons donc l'identifier comme un système de rationalisation idéologique - ce qui n'est pas la même chose, de dire qu'il n'a aucune valeur.

L'analogie erronée de Lévi-Strauss entre un système sans contexte et un système contextuel - et donc tout l'édifice que les structuralistes ont érigé - provient d'une confusion entre langage et communication. D'une part, une telle confusion n'est possible que dans des théories ponctuées de façon à exclure la catégorie sociale objective de l'exploitation. D'autre part, elle dépend d'une unique isomorphie réelle, qui est ensuite utilisée pour réduire les différents niveaux d'organisation les uns par rapport aux autres : le fait que le langage, les systèmes de parenté, l'étude structurelle des mythes et la science de la phonologie soient des communications numériques (discontinues) au sujet de rapports analogues (continus). Une caractéristique unique de la communication numérique, à savoir qu'il s'agit d'un système de communication comportant limites et lacunes, est réifiée par l'argument structuraliste de sorte qu'il peut être appliqué sans distinction, comme catégorie ontologique implicite, à chaque niveau de complexité où apparaissent des "limites et des lacunes ". De telles formes numériques apparaissent nécessairement, comme instrument de communication, à tous les niveaux de complexité biologique et sociale. Par conséquent, l'argument réductionniste des structuralistes est grandement facilité. De plus, le fait que l'opposition binaire soit aussi une catégorie importante en physique classique (électromagnétisme par exemple) autorise les structuralistes à faire l'erreur épistémologique supplémentaire de confondre matière-énergie et information.

Auteur: Wilden Anthony

Info: Extrait de System and Structure (1972) sur http://www.haussite.net. Trad. Mg

[ anti structuralisme ] [ vingtième siècle ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

dichotomie

De quoi l'espace-temps est-il réellement fait ?

L'espace-temps pourrait émerger d'une réalité plus fondamentale. La découverte de cette réalité pourrait débloquer l'objectif le plus urgent de la physique

Natalie Paquette passe son temps à réfléchir à la manière de faire croître une dimension supplémentaire. Elle commence par de petits cercles, dispersés en tout point de l'espace et du temps - une dimension en forme de boucle, qui se referme sur elle-même. Puis on rétrécit ces cercles, de plus en plus petits, en resserrant la boucle, jusqu'à ce qu'une curieuse transformation se produise : la dimension cesse de sembler minuscule et devient énorme, comme lorsqu'on réalise que quelque chose qui semble petit et proche est en fait énorme et distant. "Nous réduisons une direction spatiale", explique Paquette. "Mais lorsque nous essayons de la rétrécir au-delà d'un certain point, une nouvelle et grande direction spatiale émerge à la place."

Paquette, physicien théoricien à l'université de Washington, n'est pas le seul à penser à cette étrange sorte de transmutation dimensionnelle. Un nombre croissant de physiciens, travaillant dans différents domaines de la discipline avec des approches différentes, convergent de plus en plus vers une idée profonde : l'espace - et peut-être même le temps - n'est pas fondamental. Au contraire, l'espace et le temps pourraient être émergents : ils pourraient découler de la structure et du comportement de composants plus fondamentaux de la nature. Au niveau le plus profond de la réalité, des questions comme "Où ?" et "Quand ?" n'ont peut-être aucune réponse. "La physique nous donne de nombreux indices selon lesquels l'espace-temps tel que nous le concevons n'est pas la chose fondamentale", déclare M. Paquette.

Ces notions radicales proviennent des derniers rebondissements de la chasse à la théorie de la gravité quantique, qui dure depuis un siècle. La meilleure théorie des physiciens sur la gravité est la relativité générale, la célèbre conception d'Albert Einstein sur la façon dont la matière déforme l'espace et le temps. Leur meilleure théorie sur tout le reste est la physique quantique, qui est d'une précision étonnante en ce qui concerne les propriétés de la matière, de l'énergie et des particules subatomiques. Les deux théories ont facilement passé tous les tests que les physiciens ont pu concevoir au cours du siècle dernier. On pourrait penser qu'en les réunissant, on obtiendrait une "théorie du tout".

Mais les deux théories ne s'entendent pas bien. Demandez à la relativité générale ce qui se passe dans le contexte de la physique quantique, et vous obtiendrez des réponses contradictoires, avec des infinis indomptés se déchaînant sur vos calculs. La nature sait comment appliquer la gravité dans des contextes quantiques - cela s'est produit dans les premiers instants du big bang, et cela se produit encore au cœur des trous noirs - mais nous, les humains, avons encore du mal à comprendre comment le tour se joue. Une partie du problème réside dans la manière dont les deux théories traitent l'espace et le temps. Alors que la physique quantique considère l'espace et le temps comme immuables, la relativité générale les déforme au petit déjeuner.

D'une manière ou d'une autre, une théorie de la gravité quantique devrait concilier ces idées sur l'espace et le temps. Une façon d'y parvenir serait d'éliminer le problème à sa source, l'espace-temps lui-même, en faisant émerger l'espace et le temps de quelque chose de plus fondamental. Ces dernières années, plusieurs pistes de recherche différentes ont toutes suggéré qu'au niveau le plus profond de la réalité, l'espace et le temps n'existent pas de la même manière que dans notre monde quotidien. Au cours de la dernière décennie, ces idées ont radicalement changé la façon dont les physiciens envisagent les trous noirs. Aujourd'hui, les chercheurs utilisent ces concepts pour élucider le fonctionnement d'un phénomène encore plus exotique : les trous de ver, connexions hypothétiques en forme de tunnel entre des points distants de l'espace-temps. Ces succès ont entretenu l'espoir d'une percée encore plus profonde. Si l'espace-temps est émergent, alors comprendre d'où il vient - et comment il pourrait naître de n'importe quoi d'autre - pourrait être la clé manquante qui ouvrirait enfin la porte à une théorie du tout.

LE MONDE DANS UN DUO DE CORDES

Aujourd'hui, la théorie candidate à la gravité quantique la plus populaire parmi les physiciens est la théorie des cordes. Selon cette idée, les cordes éponymes sont les constituants fondamentaux de la matière et de l'énergie, donnant naissance à la myriade de particules subatomiques fondamentales observées dans les accélérateurs de particules du monde entier. Elles sont même responsables de la gravité - une particule hypothétique porteuse de la force gravitationnelle, un "graviton", est une conséquence inévitable de la théorie.

Mais la théorie des cordes est difficile à comprendre : elle se situe dans un territoire mathématique que les physiciens et les mathématiciens ont mis des décennies à explorer. Une grande partie de la structure de la théorie est encore inexplorée, des expéditions sont encore prévues et des cartes restent à établir. Dans ce nouveau domaine, la principale technique de navigation consiste à utiliser des dualités mathématiques, c'est-à-dire des correspondances entre un type de système et un autre.

La dualité évoquée au début de cet article, entre les petites dimensions et les grandes, en est un exemple. Si vous essayez de faire entrer une dimension dans un petit espace, la théorie des cordes vous dit que vous obtiendrez quelque chose de mathématiquement identique à un monde où cette dimension est énorme. Selon la théorie des cordes, les deux situations sont identiques : vous pouvez aller et venir librement de l'une à l'autre et utiliser les techniques d'une situation pour comprendre le fonctionnement de l'autre. "Si vous gardez soigneusement la trace des éléments fondamentaux de la théorie, dit Paquette, vous pouvez naturellement trouver parfois que... vous pourriez faire croître une nouvelle dimension spatiale."

Une dualité similaire suggère à de nombreux théoriciens des cordes que l'espace lui-même est émergeant. L'idée a germé en 1997, lorsque Juan Maldacena, physicien à l'Institute for Advanced Study, a découvert une dualité entre une théorie quantique bien comprise, connue sous le nom de théorie des champs conforme (CFT), et un type particulier d'espace-temps issu de la relativité générale, appelé espace anti-de Sitter (AdS). Ces deux théories semblent très différentes : la CFT ne comporte aucune gravité, tandis que l'espace AdS intègre toute la théorie de la gravité d'Einstein. Pourtant, les mêmes mathématiques peuvent décrire les deux mondes. Lorsqu'elle a été découverte, cette correspondance AdS/CFT a fourni un lien mathématique tangible entre une théorie quantique et un univers complet comportant une gravité.

Curieusement, l'espace AdS dans la correspondance AdS/CFT comportait une dimension de plus que la CFT quantique. Mais les physiciens se sont délectés de ce décalage, car il s'agissait d'un exemple parfaitement élaboré d'un autre type de correspondance conçu quelques années plus tôt par les physiciens Gerard 't Hooft de l'université d'Utrecht aux Pays-Bas et Leonard Susskind de l'université de Stanford, connu sous le nom de principe holographique. Se fondant sur certaines des caractéristiques particulières des trous noirs, Gerard 't Hooft et Leonard Susskind soupçonnaient que les propriétés d'une région de l'espace pouvaient être entièrement "codées" par sa frontière. En d'autres termes, la surface bidimensionnelle d'un trou noir contiendrait toutes les informations nécessaires pour savoir ce qui se trouve dans son intérieur tridimensionnel, comme un hologramme. "Je pense que beaucoup de gens ont pensé que nous étions fous", dit Susskind. "Deux bons physiciens devenusdingues".

De même, dans la correspondance AdS/CFT, la CFT quadridimensionnelle encode tout ce qui concerne l'espace AdS à cinq dimensions auquel elle est associée. Dans ce système, la région entière de l'espace-temps est construite à partir des interactions entre les composants du système quantique dans la théorie des champs conforme. Maldacena compare ce processus à la lecture d'un roman. "Si vous racontez une histoire dans un livre, il y a les personnages du livre qui font quelque chose", dit-il. "Mais tout ce qu'il y a, c'est une ligne de texte, non ? Ce que font les personnages est déduit de cette ligne de texte. Les personnages du livre seraient comme la théorie [AdS] globale. Et la ligne de texte est la [CFT]."

Mais d'où vient l'espace de l'espace AdS ? Si cet espace est émergent, de quoi émerge-t-il ? La réponse est un type d'interaction spécial et étrangement quantique dans la CFT : l'intrication, une connexion à longue distance entre des objets, corrélant instantanément leur comportement de manière statistiquement improbable. L'intrication a beaucoup troublé Einstein, qui l'a qualifiée d'"action étrange à distance".

Connaîtrons-nous un jour la véritable nature de l'espace et du temps ?

 Pourtant, malgré son caractère effrayant, l'intrication est une caractéristique essentielle de la physique quantique. Lorsque deux objets interagissent en mécanique quantique, ils s'intriquent généralement et le resteront tant qu'ils resteront isolés du reste du monde, quelle que soit la distance qui les sépare. Dans des expériences, les physiciens ont maintenu l'intrication entre des particules distantes de plus de 1 000 kilomètres et même entre des particules au sol et d'autres envoyées vers des satellites en orbite. En principe, deux particules intriquées pourraient maintenir leur connexion sur des côtés opposés de la galaxie ou de l'univers. La distance ne semble tout simplement pas avoir d'importance pour l'intrication, une énigme qui a troublé de nombreux physiciens pendant des décennies.

Mais si l'espace est émergent, la capacité de l'intrication à persister sur de grandes distances n'est peut-être pas si mystérieuse - après tout, la distance est une construction. Selon les études de la correspondance AdS/CFT menées par les physiciens Shinsei Ryu de l'université de Princeton et Tadashi Takayanagi de l'université de Kyoto, l'intrication est ce qui produit les distances dans l'espace AdS en premier lieu. Deux régions d'espace proches du côté AdS de la dualité correspondent à deux composantes quantiques hautement intriquées de la CFT. Plus elles sont intriquées, plus les régions de l'espace sont proches les unes des autres.

Ces dernières années, les physiciens en sont venus à soupçonner que cette relation pourrait également s'appliquer à notre univers. "Qu'est-ce qui maintient l'espace ensemble et l'empêche de se désagréger en sous-régions distinctes ? La réponse est l'intrication entre deux parties de l'espace", déclare Susskind. "La continuité et la connectivité de l'espace doivent leur existence à l'intrication quantique-mécanique". L'intrication pourrait donc sous-tendre la structure de l'espace lui-même, formant la chaîne et la trame qui donnent naissance à la géométrie du monde. "Si l'on pouvait, d'une manière ou d'une autre, détruire l'intrication entre deux parties [de l'espace], l'espace se désagrégerait", déclare Susskind. "Il ferait le contraire de l'émergence. Il désémergerait."

Si l'espace est fait d'intrication, l'énigme de la gravité quantique semble beaucoup plus facile à résoudre : au lieu d'essayer de rendre compte de la déformation de l'espace de manière quantique, l'espace lui-même émerge d'un phénomène fondamentalement quantique. Susskind pense que c'est la raison pour laquelle une théorie de la gravité quantique a été si difficile à trouver en premier lieu. "Je pense que la raison pour laquelle elle n'a jamais très bien fonctionné est qu'elle a commencé par une image de deux choses différentes, [la relativité générale] et la mécanique quantique, et qu'elle les a mises ensemble", dit-il. "Et je pense que l'idée est qu'elles sont beaucoup trop étroitement liées pour être séparées puis réunies à nouveau. La gravité n'existe pas sans la mécanique quantique".

Pourtant, la prise en compte de l'espace émergent ne représente que la moitié du travail. L'espace et le temps étant si intimement liés dans la relativité, tout compte rendu de l'émergence de l'espace doit également expliquer le temps. "Le temps doit également émerger d'une manière ou d'une autre", déclare Mark van Raamsdonk, physicien à l'université de Colombie-Britannique et pionnier du lien entre intrication et espace-temps. "Mais cela n'est pas bien compris et constitue un domaine de recherche actif".

Un autre domaine actif, dit-il, consiste à utiliser des modèles d'espace-temps émergent pour comprendre les trous de ver. Auparavant, de nombreux physiciens pensaient que l'envoi d'objets à travers un trou de ver était impossible, même en théorie. Mais ces dernières années, les physiciens travaillant sur la correspondance AdS/CFT et sur des modèles similaires ont trouvé de nouvelles façons de construire des trous de ver. "Nous ne savons pas si nous pourrions le faire dans notre univers", dit van Raamsdonk. "Mais ce que nous savons maintenant, c'est que certains types de trous de ver traversables sont théoriquement possibles". Deux articles - l'un en 2016 et l'autre en 2018 - ont conduit à une rafale de travaux en cours dans ce domaine. Mais même si des trous de ver traversables pouvaient être construits, ils ne seraient pas d'une grande utilité pour les voyages spatiaux. Comme le souligne Susskind, "on ne peut pas traverser ce trou de ver plus vite qu'il ne faudrait à [la lumière] pour faire le chemin inverse."

Si les théoriciens des cordes ont raison, alors l'espace est construit à partir de l'intrication quantique, et le temps pourrait l'être aussi. Mais qu'est-ce que cela signifie vraiment ? Comment l'espace peut-il être "fait" d'intrication entre des objets, à moins que ces objets ne soient eux-mêmes quelque part ? Comment ces objets peuvent-ils s'enchevêtrer s'ils ne connaissent pas le temps et le changement ? Et quel type d'existence les choses pourraient-elles avoir sans habiter un espace et un temps véritables ?

Ces questions frisent la philosophie, et les philosophes de la physique les prennent au sérieux. "Comment diable l'espace-temps pourrait-il être le genre de chose qui pourrait être émergent ?" demande Eleanor Knox, philosophe de la physique au King's College de Londres. Intuitivement, dit-elle, cela semble impossible. Mais Knox ne pense pas que ce soit un problème. "Nos intuitions sont parfois catastrophiques", dit-elle. Elles "ont évolué dans la savane africaine en interagissant avec des macro-objets, des macro-fluides et des animaux biologiques" et ont tendance à ne pas être transférées au monde de la mécanique quantique. En ce qui concerne la gravité quantique, "Où sont les objets ?" et "Où vivent-ils ?" ne sont pas les bonnes questions à poser", conclut Mme Knox.

Il est certainement vrai que les objets vivent dans des lieux dans la vie de tous les jours. Mais comme Knox et bien d'autres le soulignent, cela ne signifie pas que l'espace et le temps doivent être fondamentaux, mais simplement qu'ils doivent émerger de manière fiable de ce qui est fondamental. Prenons un liquide, explique Christian Wüthrich, philosophe de la physique à l'université de Genève. "En fin de compte, il s'agit de particules élémentaires, comme les électrons, les protons et les neutrons ou, plus fondamental encore, les quarks et les leptons. Les quarks et les leptons ont-ils des propriétés liquides ? Cela n'a aucun sens... Néanmoins, lorsque ces particules fondamentales se rassemblent en nombre suffisant et montrent un certain comportement ensemble, un comportement collectif, alors elles agiront d'une manière qui ressemble à un liquide."

Selon Wüthrich, l'espace et le temps pourraient fonctionner de la même manière dans la théorie des cordes et d'autres théories de la gravité quantique. Plus précisément, l'espace-temps pourrait émerger des matériaux que nous considérons habituellement comme vivant dans l'univers - la matière et l'énergie elles-mêmes. "Ce n'est pas que nous ayons d'abord l'espace et le temps, puis nous ajoutons de la matière", explique Wüthrich. "Au contraire, quelque chose de matériel peut être une condition nécessaire pour qu'il y ait de l'espace et du temps. Cela reste un lien très étroit, mais c'est juste l'inverse de ce que l'on aurait pu penser à l'origine."

Mais il existe d'autres façons d'interpréter les dernières découvertes. La correspondance AdS/CFT est souvent considérée comme un exemple de la façon dont l'espace-temps pourrait émerger d'un système quantique, mais ce n'est peut-être pas vraiment ce qu'elle montre, selon Alyssa Ney, philosophe de la physique à l'université de Californie, à Davis. "AdS/CFT vous donne cette capacité de fournir un manuel de traduction entre les faits concernant l'espace-temps et les faits de la théorie quantique", dit Ney. "C'est compatible avec l'affirmation selon laquelle l'espace-temps est émergent, et une certaine théorie quantique est fondamentale." Mais l'inverse est également vrai, dit-elle. La correspondance pourrait signifier que la théorie quantique est émergente et que l'espace-temps est fondamental, ou qu'aucun des deux n'est fondamental et qu'il existe une théorie fondamentale encore plus profonde. L'émergence est une affirmation forte, dit Ney, et elle est ouverte à la possibilité qu'elle soit vraie. "Mais, du moins si l'on s'en tient à AdS/CFT, je ne vois toujours pas d'argument clair en faveur de l'émergence."

Un défi sans doute plus important pour l'image de la théorie des cordes de l'espace-temps émergent est caché à la vue de tous, juste au nom de la correspondance AdS/CFT elle-même. "Nous ne vivons pas dans un espace anti-de Sitter", dit Susskind. "Nous vivons dans quelque chose de beaucoup plus proche de l'espace de Sitter". L'espace de Sitter décrit un univers en accélération et en expansion, comme le nôtre. "Nous n'avons pas la moindre idée de la façon dont [l'holographie] s'y applique", conclut M. Susskind. Trouver comment établir ce type de correspondance pour un espace qui ressemble davantage à l'univers réel est l'un des problèmes les plus urgents pour les théoriciens des cordes. "Je pense que nous allons être en mesure de mieux comprendre comment entrer dans une version cosmologique de ceci", dit van Raamsdonk.

Enfin, il y a les nouvelles - ou l'absence de nouvelles - provenant des derniers accélérateurs de particules, qui n'ont trouvé aucune preuve de l'existence des particules supplémentaires prévues par la supersymétrie, une idée sur laquelle repose la théorie des cordes. Selon la supersymétrie, toutes les particules connues auraient leurs propres "superpartenaires", ce qui doublerait le nombre de particules fondamentales. Mais le Grand collisionneur de hadrons du CERN, près de Genève, conçu en partie pour rechercher des superpartenaires, n'en a vu aucun signe. "Toutes les versions vraiment précises de [l'espace-temps émergent] dont nous disposons se trouvent dans des théories supersymétriques", déclare Susskind. "Une fois que vous n'avez plus de supersymétrie, la capacité à suivre mathématiquement les équations s'évapore tout simplement de vos mains".

LES ATOMES DE L'ESPACE-TEMPS

La théorie des cordes n'est pas la seule idée qui suggère que l'espace-temps est émergent. La théorie des cordes "n'a pas réussi à tenir [ses] promesses en tant que moyen d'unir la gravité et la mécanique quantique", déclare Abhay Ashtekar, physicien à l'université d'État de Pennsylvanie. "La puissance de la théorie des cordes réside désormais dans le fait qu'elle fournit un ensemble d'outils extrêmement riche, qui ont été largement utilisés dans tout le spectre de la physique." Ashtekar est l'un des pionniers originaux de l'alternative la plus populaire à la théorie des cordes, connue sous le nom de gravité quantique à boucles. Dans la gravité quantique à boucles, l'espace et le temps ne sont pas lisses et continus, comme c'est le cas dans la relativité générale, mais ils sont constitués de composants discrets, ce qu'Ashtekar appelle des "morceaux ou atomes d'espace-temps".

Ces atomes d'espace-temps sont connectés en réseau, avec des surfaces unidimensionnelles et bidimensionnelles qui les réunissent en ce que les praticiens de la gravité quantique à boucle appellent une mousse de spin. Et bien que cette mousse soit limitée à deux dimensions, elle donne naissance à notre monde quadridimensionnel, avec trois dimensions d'espace et une de temps. Ashtekar compare ce monde à un vêtement. "Si vous regardez votre chemise, elle ressemble à une surface bidimensionnelle", dit-il. "Si vous prenez une loupe, vous verrez immédiatement qu'il s'agit de fils unidimensionnels. C'est juste que ces fils sont si denses que, pour des raisons pratiques, vous pouvez considérer la chemise comme une surface bidimensionnelle. De même, l'espace qui nous entoure ressemble à un continuum tridimensionnel. Mais il y a vraiment un entrecroisement par ces [atomes d'espace-temps]".

Bien que la théorie des cordes et la gravité quantique à boucles suggèrent toutes deux que l'espace-temps est émergent, le type d'émergence est différent dans les deux théories. La théorie des cordes suggère que l'espace-temps (ou du moins l'espace) émerge du comportement d'un système apparemment sans rapport, sous forme d'intrication. Pensez à la façon dont les embouteillages émergent des décisions collectives des conducteurs individuels. Les voitures ne sont pas faites de la circulation - ce sont les voitures qui font la circulation. Dans la gravité quantique à boucles, par contre, l'émergence de l'espace-temps ressemble davantage à une dune de sable en pente émergeant du mouvement collectif des grains de sable dans le vent. L'espace-temps lisse et familier provient du comportement collectif de minuscules "grains" d'espace-temps ; comme les dunes, les grains sont toujours du sable, même si les gros grains cristallins n'ont pas l'apparence ou le comportement des dunes ondulantes.

Malgré ces différences, gravité quantique à boucles et  théorie des cordes suggèrent toutes deux que l'espace-temps émerge d'une réalité sous-jacente. Elles ne sont pas non plus les seules théories proposées de la gravité quantique qui vont dans ce sens. La théorie de l'ensemble causal, un autre prétendant à une théorie de la gravité quantique, postule que l'espace et le temps sont également constitués de composants plus fondamentaux. "Il est vraiment frappant de constater que, pour la plupart des théories plausibles de la gravité quantique dont nous disposons, leur message est, en quelque sorte, que l'espace-temps relativiste général n'existe pas au niveau fondamental", déclare Knox. "Les gens sont très enthousiastes lorsque différentes théories de la gravité quantique s'accordent au moins sur quelque chose."

L'AVENIR DE L'ESPACE AUX CONFINS DU TEMPS

La physique moderne est victime de son propre succès. La physique quantique et la relativité générale étant toutes deux d'une précision phénoménale, la gravité quantique n'est nécessaire que pour décrire des situations extrêmes, lorsque des masses énormes sont entassées dans des espaces insondables. Ces conditions n'existent que dans quelques endroits de la nature, comme le centre d'un trou noir, et surtout pas dans les laboratoires de physique, même les plus grands et les plus puissants. Il faudrait un accélérateur de particules de la taille d'une galaxie pour tester directement le comportement de la nature dans des conditions où règne la gravité quantique. Ce manque de données expérimentales directes explique en grande partie pourquoi la recherche d'une théorie de la gravité quantique par les scientifiques a été si longue.

Face à l'absence de preuves, la plupart des physiciens ont placé leurs espoirs dans le ciel. Dans les premiers instants du big bang, l'univers entier était phénoménalement petit et dense - une situation qui exige une gravité quantique pour le décrire. Et des échos de cette époque peuvent subsister dans le ciel aujourd'hui. "Je pense que notre meilleure chance [de tester la gravité quantique] passe par la cosmologie", déclare Maldacena. "Peut-être quelque chose en cosmologie que nous pensons maintenant être imprévisible, qui pourra peut-être être prédit une fois que nous aurons compris la théorie complète, ou une nouvelle chose à laquelle nous n'avions même pas pensé."

Les expériences de laboratoire pourraient toutefois s'avérer utiles pour tester la théorie des cordes, du moins indirectement. Les scientifiques espèrent étudier la correspondance AdS/CFT non pas en sondant l'espace-temps, mais en construisant des systèmes d'atomes fortement intriqués et en observant si un analogue à l'espace-temps et à la gravité apparaît dans leur comportement. De telles expériences pourraient "présenter certaines caractéristiques de la gravité, mais peut-être pas toutes", déclare Maldacena. "Cela dépend aussi de ce que l'on appelle exactement la gravité".

Connaîtrons-nous un jour la véritable nature de l'espace et du temps ? Les données d'observation du ciel ne seront peut-être pas disponibles de sitôt. Les expériences en laboratoire pourraient être un échec. Et comme les philosophes le savent bien, les questions sur la véritable nature de l'espace et du temps sont très anciennes. Ce qui existe "est maintenant tout ensemble, un, continu", disait le philosophe Parménide il y a 2 500 ans. "Tout est plein de ce qui est". Parménide insistait sur le fait que le temps et le changement étaient des illusions, que tout partout était un et le même. Son élève Zénon a créé de célèbres paradoxes pour prouver le point de vue de son professeur, prétendant démontrer que le mouvement sur n'importe quelle distance était impossible. Leurs travaux ont soulevé la question de savoir si le temps et l'espace étaient en quelque sorte illusoires, une perspective troublante qui a hanté la philosophie occidentale pendant plus de deux millénaires.

Le fait que les Grecs de l'Antiquité aient posé des questions telles que "Qu'est-ce que l'espace ?", "Qu'est-ce que le temps ?", "Qu'est-ce que le changement ?" et que nous posions encore des versions de ces questions aujourd'hui signifie qu'il s'agissait des bonnes questions à poser", explique M. Wüthrich. "C'est en réfléchissant à ce genre de questions que nous avons appris beaucoup de choses sur la physique".

Auteur: Becker Adam

Info: Scientific American, février 2022

[ monde de l'observateur humain ] [ univers nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel