Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 296
Temps de recherche: 0.053s

multi-milliardaires

DE LA SURVIE DES PLUS RICHES
Quand des patrons de fonds d'investissement new-yorkais font appel à un spécialiste de la société de l'information, afin d'améliorer leurs chances de survie après l'Évènement qui détruira le monde tel que nous le connaissons.

AVERTISSEMENT, CECI N'EST PAS UNE FICTION
L’année dernière, j’ai été invité à donner une conférence dans un complexe hôtelier d’hyper-luxe face à ce que je pensais être un groupe d’une centaine de banquiers spécialisés dans l’investissement. On ne m’avait jamais proposé une somme aussi importante pour une intervention - presque la moitié de mon salaire annuel de professeur - et délivrer mes visions sur "l’avenir de la technologie".

Je n’ai jamais aimé parler du futur. Ce genre de séance d’échange se termine fatalement par un interrogatoire, à l’occasion duquel on me demande de me prononcer sur les dernières "tendances" technologiques, comme s’il s’agissait d’indicateurs boursiers pour les investisseurs : blockchain, impression 3D, CRISPR. L’audience s’y préoccupe généralement moins des technologies en elles-mêmes et de leurs implications, que de savoir si elles méritent ou non que l’on parie sur elles, en mode binaire. Mais l’argent ayant le dernier mot, j’ai accepté le boulot.

À mon arrivée, on m’a accompagné dans ce que j’ai cru n’être qu’une vulgaire salle technique. Mais alors que je m’attendais à ce que l’on me branche un microphone ou à ce que l’on m’amène sur scène, on m’a simplement invité à m’asseoir à une grande table de réunion, pendant que mon public faisait son entrée : cinq gars ultra-riches - oui, uniquement des hommes - tous issus des plus hautes sphères de la finance internationale. Dès nos premiers échanges, j’ai réalisé qu’ils n’étaient pas là pour le topo que je leur avais préparé sur le futur de la technologie. Ils étaient venus avec leurs propres questions.

Ça a d’abord commencé de manière anodine. Ethereum ou Bitcoin ? L’informatique quantique est-elle une réalité ? Lentement mais sûrement, ils m’ont amené vers le véritable sujet de leurs préoccupations.

Quelle sera la région du monde la plus épargnée par la prochaine crise climatique : la nouvelle Zélande ou l’Alaska ? Est-ce que Google construit réellement un nouveau foyer pour le cerveau de Ray Kurzweil ? Est-ce que sa conscience survivra à cette transition ou bien mourra-t-elle pour renaître ensuite ? Enfin, le PDG d’une société de courtage s’est inquiété, après avoir mentionné le bunker sous-terrain dont il achevait la construction : "Comment puis-je conserver le contrôle de mes forces de sécurité, après l’Événement ?"

L’Évènement. Un euphémisme qu’ils employaient pour évoquer l’effondrement environnemental, les troubles sociaux, l’explosion nucléaire, le nouveau virus impossible à endiguer ou encore l’attaque informatique d’un Mr Robot qui ferait à lui seul planter tout le système.

Cette question allait nous occuper durant toute l’heure restante. Ils avaient conscience que des gardes armés seraient nécessaires pour protéger leurs murs des foules en colère. Mais comment payer ces gardes, le jour où l’argent n’aurait plus de valeur ? Et comment les empêcher de se choisir un nouveau leader ? Ces milliardaires envisageaient d’enfermer leurs stocks de nourriture derrière des portes blindées aux serrures cryptées, dont eux seuls détiendraient les codes. D’équiper chaque garde d’un collier disciplinaire, comme garantie de leur survie. Ou encore, si la technologie le permettait à temps, de construire des robots qui serviraient à la fois de gardes et de force de travail.

C’est là que ça m’a frappé. Pour ces messieurs, notre discussion portait bien sur le futur de la technologie. Inspirés par le projet de colonisation de la planète Mars d’Elon Musk, les tentatives d’inversion du processus du vieillissement de Peter Thiel, ou encore les expériences de Sam Altman et Ray de Kurzweil qui ambitionnent de télécharger leurs esprits dans de super-ordinateurs, ils se préparaient à un avenir numérique qui avait moins à voir avec l’idée de construire un monde meilleur que de transcender la condition humaine et de se préserver de dangers aussi réels qu’immédiats, comme le changement climatique, la montée des océans, les migrations de masse, les pandémies planétaires, les paniques identitaires et l’épuisement des ressources. Pour eux, le futur de la technologie se résumait à une seule finalité : fuir.

Il n’y a rien de mal aux visions les plus follement optimistes sur la manière dont la technologie pourrait bénéficier à l’ensemble de la société humaine. Mais l’actuel engouement pour les utopies post-humaines est d’un tout autre ordre. Il s’agit moins d’une vision de la migration de l’ensemble de notre espèce vers une nouvelle condition humaine, que d’une quête pour transcender tout ce qui nous constitue : nos corps, notre interdépendance, la compassion, la vulnérabilité et la complexité. Comme l’indiquent maintenant depuis plusieurs années les philosophes de la technologie, le prisme transhumaniste réduit trop facilement la réalité à un conglomérat de données, en concluant que "les humains ne sont rien d’autre que des centres de traitement de l’information".

L’évolution humaine s’apparente alors à une sorte de jeu vidéo labyrinthique, dont les heureux gagnants balisent le chemin de la sortie pour leurs partenaires les plus privilégiés. S’agit-il de Musk, Bezos, Thiel… Zuckerberg ? Ces quelques milliardaires sont les gagnants présupposés d’une économie numérique régie par une loi de la jungle qui sévit dans le monde des affaires et de la spéculation dont ils sont eux-mêmes issus.

Bien sûr, il n’en n’a pas toujours été ainsi. Il y a eu une période courte, au début des années 1990, où l’avenir numérique apparaissait fertile, enthousiasmant, ouvert à la création. La technologie y devenait le terrain de jeu de la contre-culture, qui vit là l’opportunité de créer un futur plus inclusif, mieux réparti et pro-humain. Mais les intérêts commerciaux n’y ont vu pour leur part que de nouveaux potentiels pour leurs vieux réflexes. Et trop de technologues se sont laissés séduire par des IPO (introduction en bourse) chimériques. Les futurs numériques s’en retrouvèrent envisagés sous le même prisme que le cours de la bourse ou du coton, dans ce même jeu dangereux de paris et de prédictions. Ainsi, la moindre étude documentaire, le moindre article ou livre blanc publié sur ce thème n’étaient plus interprété que comme un nouvel indice boursier. Le futur s’est transformé en une sorte de scénario prédestiné, sur lequel on parie à grands renforts de capital-risque, mais qu’on laisse se produire de manière passive, plus que comme quelque chose que l’on crée au travers de nos choix présents et de nos espoirs pour l’espèce humaine.

Ce qui a libéré chacun d’entre nous des implications morales de son activité. Le développement technologique est devenu moins une affaire d’épanouissement collectif que de survie individuelle. Pire, comme j’ai pu l’apprendre à mes dépens, le simple fait de pointer cette dérive suffisait à vous désigner d’emblée comme un ennemi rétrograde du marché, un ringard technophobe.

Et plutôt que de questionner la dimension éthique de pratiques qui exploitent et appauvrissent les masses au profit d’une minorité, la majorité des universitaires, des journalistes et des écrivains de science fiction ont préféré se focaliser sur des implications plus abstraites et périphériques : "Est-il juste qu’un trader utilise des drogues nootropiques ? Doit-on greffer des implants aux enfants pour leur permettre de parler des langues étrangères? Les véhicules intelligents doivent-ils privilégier la sécurité des piétons ou celle de leurs usagers? Est-ce que les premières colonies martiennes se doivent d’adopter un modèle démocratique? Modifier son ADN, est-ce modifier son identité ? Est-ce que les robots doivent avoir des droits ?".

Sans nier le côté divertissant de ces questions sur un plan philosophique, force est d’admettre qu’elles ne pèsent pas lourd face aux vrais enjeux moraux posés par le développement technologique débridé, au nom du capitalisme pratiqué par les multinationales. Les plateformes numériques ont modifié un marché déjà fondé sur l’exploitation (Walmart) pour donner naissance à un successeur encore plus déshumanisant (Amazon). La plupart d’entre-nous sommes conscients de ces dérives, rendues visibles par la recrudescence des emplois automatisés, par l’explosion de l’économie à la tâche et la disparition du commerce local de détails.

Mais c’est encore vis-à-vis de l’environnement et des populations les plus pauvres que ce capitalisme numérique désinhibé produit ses effets les plus dévastateurs. La fabrication de certains de nos ordinateurs et de nos smartphones reste assujettie au travail forcé et à l’esclavage. Une dépendance si consubstantielle que Fairphone, l’entreprise qui ambitionnait de fabriquer et de commercialiser des téléphones éthiques, s’est vue obligée de reconnaître que c’était en réalité impossible. Son fondateur se réfère aujourd’hui tristement à ses produits comme étant "plus" éthiques.

Pendant ce temps, l’extraction de métaux et de terres rares, conjuguée au stockage de nos déchets technologiques, ravage des habitats humains transformés en véritables décharges toxiques, dans lesquels es enfants et des familles de paysans viennent glaner de maigres restes utilisables, dans l’espoir de les revendre plus tard aux fabricants.

Nous aurons beau nous réfugier dans une réalité alternative, en cachant nos regards derrière des lunettes de réalité virtuelle, cette sous-traitance de la misère et de la toxicité n’en disparaîtra pas pour autant. De fait, plus nous en ignorerons les répercussions sociales, économiques et environnementales, plus elles s’aggraveront. En motivant toujours plus de déresponsabilisation, d’isolement et de fantasmes apocalyptiques, dont on cherchera à se prémunir avec toujours plus de technologies et de business plans. Le cycle se nourrit de lui-même.

Plus nous adhérerons à cette vision du monde, plus les humains apparaitront comme la source du problème et la technologie comme la solution. L’essence même de ce qui caractérise l’humain est moins traité comme une fonctionnalité que comme une perturbation. Quels que furent les biais idéologiques qui ont mené à leur émergence, les technologies bénéficient d’une aura de neutralité. Et si elles induisent parfois des dérives comportementales, celles-ci ne seraient que le reflet de nos natures corrompues. Comme si nos difficultés ne résultaient que de notre sauvagerie constitutive. À l’instar de l’inefficacité d’un système de taxis locaux pouvant être "résolue" par une application qui ruine les chauffeurs humains, les inconsistances contrariantes de notre psyché pouvait être corrigée par une mise à jour digitale ou génétique.

Selon l’orthodoxie techno-solutionniste, le point culminant de l’évolution humaine consisterait enfin à transférer notre conscience dans un ordinateur, ou encore mieux, à accepter la technologie comme notre successeur dans l’évolution des espèces. Comme les adeptes d’un culte gnostique, nous souhaitons atteindre la prochaine phase transcendante de notre évolution, en nous délestant de nos corps et en les abandonnant, avec nos péchés et nos problèmes.

Nos films et nos productions télévisuelles continuent d’alimenter ces fantasmes. Les séries sur les zombies dépeignent ainsi une post-apocalypse où les gens ne valent pas mieux que les morts vivants - et semblent en être conscients. Pire, ces projections fictives invitent les spectateurs à envisager l’avenir comme une bataille à somme nulle entre les survivants, où la survie d’un groupe dépend mécaniquement de la disparition d’un autre. Jusqu’à la série Westworld, basée sur un roman de science-fiction dans lequel les robots deviennent fous et qui clôt sa seconde saison sur une ultime révélation : les êtres humains sont plus simples et plus prévisibles que les intelligences artificielles qu’ils ont créées. Les robots y apprennent que nous nous réduisons, tous autant que nous sommes, à quelques lignes de code et que notre libre arbitre n’est qu’une illusion. Zut ! Dans cette série, les robots eux-mêmes veulent échapper aux limites de leurs corps et passer le reste de leurs vies dans une simulation informatique.

Seul un profond dégoût pour l’humanité autorise une telle gymnastique mentale, en inversant ainsi les rôles de l’homme et de la machine. Modifions-les ou fuyons-les, pour toujours.

Ainsi, nous nous retrouvons face à des techno-milliardaires qui expédient leurs voiture électriques dans l’espace, comme si ça symbolisait autre chose que la capacité d’un milliardaire à assurer la promotion de sa propre compagnie. Et quand bien même quelques élus parviendraient à rallier la planète Mars pour y subsister dans une sorte de bulle artificielle - malgré notre incapacité à maintenir des telles bulles sur Terre, malgré les milliards de dollars engloutis dans les projets Biosphère - le résultat s’apparenterait plus à une espèce de chaloupe luxueuse réservée une élite qu’à la perpétuation de la diaspora humaine.

Quand ces responsables de fonds d’investissement m’ont interrogé sur la meilleure manière de maintenir leur autorité sur leurs forces de sécurité "après l’Évènement", je leur ai suggéré de traiter leurs employés du mieux possible, dès maintenant. De se comporter avec eux comme s’il s’agissait des membres de leur propre famille. Et que plus ils insuffleraient cette éthique inclusive à leur pratiques commerciales, à la gestion de leurs chaînes d’approvisionnement, au développement durable et à la répartition des richesses, moins il y aurait de chances que "l’Événement" se produise. Qu’ils auraient tout intérêt à employer cette magie technologique au service d’enjeux, certes moins romantiques, mais plus collectifs, dès aujourd’hui.

Mon optimisme les a fait sourire, mais pas au point de les convaincre. Éviter la catastrophe ne les intéressait finalement pas, persuadés qu’ils sont que nous sommes déjà trop engagés dans cette direction. Malgré le pouvoir que leur confèrent leurs immenses fortunes, ils ne veulent pas croire en leur propre capacité d’infléchir sur le cours des événements. Ils achètent les scénarios les plus sombres et misent sur leur argent et la technologie pour s’en prémunir - surtout s’ils peuvent disposer d’un siège dans la prochaine fusée pour Mars.

Heureusement, ceux d’entre nous qui n’ont pas de quoi financer le reniement de leur propre humanité disposent de meilleures options. Rien nous force à utiliser la technologie de manière aussi antisociale et destructive. Nous pouvons nous transformer en individus consommateurs, aux profils formatés par notre arsenal de plateformes et d’appareils connectés, ou nous pouvons nous souvenir qu’un être humain véritablement évolué ne fonctionne pas seul.

Être humain ne se définit pas dans notre capacité à fuir ou à survivre individuellement. C’est un sport d’équipe. Quel que soit notre futur, il se produira ensemble.

Auteur: Rushkoff Douglas

Info: Quand les riches conspirent pour nous laisser derrière. Avec l’accord de l’auteur, traduction de Céleste Bruandet, avec la participation de Laurent Courau

[ prospective ] [ super-riches ] [ oligarques ]

 

Commentaires: 0

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

dichotomie

De quoi l'espace-temps est-il réellement fait ?

L'espace-temps pourrait émerger d'une réalité plus fondamentale. La découverte de cette réalité pourrait débloquer l'objectif le plus urgent de la physique

Natalie Paquette passe son temps à réfléchir à la manière de faire croître une dimension supplémentaire. Elle commence par de petits cercles, dispersés en tout point de l'espace et du temps - une dimension en forme de boucle, qui se referme sur elle-même. Puis on rétrécit ces cercles, de plus en plus petits, en resserrant la boucle, jusqu'à ce qu'une curieuse transformation se produise : la dimension cesse de sembler minuscule et devient énorme, comme lorsqu'on réalise que quelque chose qui semble petit et proche est en fait énorme et distant. "Nous réduisons une direction spatiale", explique Paquette. "Mais lorsque nous essayons de la rétrécir au-delà d'un certain point, une nouvelle et grande direction spatiale émerge à la place."

Paquette, physicien théoricien à l'université de Washington, n'est pas le seul à penser à cette étrange sorte de transmutation dimensionnelle. Un nombre croissant de physiciens, travaillant dans différents domaines de la discipline avec des approches différentes, convergent de plus en plus vers une idée profonde : l'espace - et peut-être même le temps - n'est pas fondamental. Au contraire, l'espace et le temps pourraient être émergents : ils pourraient découler de la structure et du comportement de composants plus fondamentaux de la nature. Au niveau le plus profond de la réalité, des questions comme "Où ?" et "Quand ?" n'ont peut-être aucune réponse. "La physique nous donne de nombreux indices selon lesquels l'espace-temps tel que nous le concevons n'est pas la chose fondamentale", déclare M. Paquette.

Ces notions radicales proviennent des derniers rebondissements de la chasse à la théorie de la gravité quantique, qui dure depuis un siècle. La meilleure théorie des physiciens sur la gravité est la relativité générale, la célèbre conception d'Albert Einstein sur la façon dont la matière déforme l'espace et le temps. Leur meilleure théorie sur tout le reste est la physique quantique, qui est d'une précision étonnante en ce qui concerne les propriétés de la matière, de l'énergie et des particules subatomiques. Les deux théories ont facilement passé tous les tests que les physiciens ont pu concevoir au cours du siècle dernier. On pourrait penser qu'en les réunissant, on obtiendrait une "théorie du tout".

Mais les deux théories ne s'entendent pas bien. Demandez à la relativité générale ce qui se passe dans le contexte de la physique quantique, et vous obtiendrez des réponses contradictoires, avec des infinis indomptés se déchaînant sur vos calculs. La nature sait comment appliquer la gravité dans des contextes quantiques - cela s'est produit dans les premiers instants du big bang, et cela se produit encore au cœur des trous noirs - mais nous, les humains, avons encore du mal à comprendre comment le tour se joue. Une partie du problème réside dans la manière dont les deux théories traitent l'espace et le temps. Alors que la physique quantique considère l'espace et le temps comme immuables, la relativité générale les déforme au petit déjeuner.

D'une manière ou d'une autre, une théorie de la gravité quantique devrait concilier ces idées sur l'espace et le temps. Une façon d'y parvenir serait d'éliminer le problème à sa source, l'espace-temps lui-même, en faisant émerger l'espace et le temps de quelque chose de plus fondamental. Ces dernières années, plusieurs pistes de recherche différentes ont toutes suggéré qu'au niveau le plus profond de la réalité, l'espace et le temps n'existent pas de la même manière que dans notre monde quotidien. Au cours de la dernière décennie, ces idées ont radicalement changé la façon dont les physiciens envisagent les trous noirs. Aujourd'hui, les chercheurs utilisent ces concepts pour élucider le fonctionnement d'un phénomène encore plus exotique : les trous de ver, connexions hypothétiques en forme de tunnel entre des points distants de l'espace-temps. Ces succès ont entretenu l'espoir d'une percée encore plus profonde. Si l'espace-temps est émergent, alors comprendre d'où il vient - et comment il pourrait naître de n'importe quoi d'autre - pourrait être la clé manquante qui ouvrirait enfin la porte à une théorie du tout.

LE MONDE DANS UN DUO DE CORDES

Aujourd'hui, la théorie candidate à la gravité quantique la plus populaire parmi les physiciens est la théorie des cordes. Selon cette idée, les cordes éponymes sont les constituants fondamentaux de la matière et de l'énergie, donnant naissance à la myriade de particules subatomiques fondamentales observées dans les accélérateurs de particules du monde entier. Elles sont même responsables de la gravité - une particule hypothétique porteuse de la force gravitationnelle, un "graviton", est une conséquence inévitable de la théorie.

Mais la théorie des cordes est difficile à comprendre : elle se situe dans un territoire mathématique que les physiciens et les mathématiciens ont mis des décennies à explorer. Une grande partie de la structure de la théorie est encore inexplorée, des expéditions sont encore prévues et des cartes restent à établir. Dans ce nouveau domaine, la principale technique de navigation consiste à utiliser des dualités mathématiques, c'est-à-dire des correspondances entre un type de système et un autre.

La dualité évoquée au début de cet article, entre les petites dimensions et les grandes, en est un exemple. Si vous essayez de faire entrer une dimension dans un petit espace, la théorie des cordes vous dit que vous obtiendrez quelque chose de mathématiquement identique à un monde où cette dimension est énorme. Selon la théorie des cordes, les deux situations sont identiques : vous pouvez aller et venir librement de l'une à l'autre et utiliser les techniques d'une situation pour comprendre le fonctionnement de l'autre. "Si vous gardez soigneusement la trace des éléments fondamentaux de la théorie, dit Paquette, vous pouvez naturellement trouver parfois que... vous pourriez faire croître une nouvelle dimension spatiale."

Une dualité similaire suggère à de nombreux théoriciens des cordes que l'espace lui-même est émergeant. L'idée a germé en 1997, lorsque Juan Maldacena, physicien à l'Institute for Advanced Study, a découvert une dualité entre une théorie quantique bien comprise, connue sous le nom de théorie des champs conforme (CFT), et un type particulier d'espace-temps issu de la relativité générale, appelé espace anti-de Sitter (AdS). Ces deux théories semblent très différentes : la CFT ne comporte aucune gravité, tandis que l'espace AdS intègre toute la théorie de la gravité d'Einstein. Pourtant, les mêmes mathématiques peuvent décrire les deux mondes. Lorsqu'elle a été découverte, cette correspondance AdS/CFT a fourni un lien mathématique tangible entre une théorie quantique et un univers complet comportant une gravité.

Curieusement, l'espace AdS dans la correspondance AdS/CFT comportait une dimension de plus que la CFT quantique. Mais les physiciens se sont délectés de ce décalage, car il s'agissait d'un exemple parfaitement élaboré d'un autre type de correspondance conçu quelques années plus tôt par les physiciens Gerard 't Hooft de l'université d'Utrecht aux Pays-Bas et Leonard Susskind de l'université de Stanford, connu sous le nom de principe holographique. Se fondant sur certaines des caractéristiques particulières des trous noirs, Gerard 't Hooft et Leonard Susskind soupçonnaient que les propriétés d'une région de l'espace pouvaient être entièrement "codées" par sa frontière. En d'autres termes, la surface bidimensionnelle d'un trou noir contiendrait toutes les informations nécessaires pour savoir ce qui se trouve dans son intérieur tridimensionnel, comme un hologramme. "Je pense que beaucoup de gens ont pensé que nous étions fous", dit Susskind. "Deux bons physiciens devenusdingues".

De même, dans la correspondance AdS/CFT, la CFT quadridimensionnelle encode tout ce qui concerne l'espace AdS à cinq dimensions auquel elle est associée. Dans ce système, la région entière de l'espace-temps est construite à partir des interactions entre les composants du système quantique dans la théorie des champs conforme. Maldacena compare ce processus à la lecture d'un roman. "Si vous racontez une histoire dans un livre, il y a les personnages du livre qui font quelque chose", dit-il. "Mais tout ce qu'il y a, c'est une ligne de texte, non ? Ce que font les personnages est déduit de cette ligne de texte. Les personnages du livre seraient comme la théorie [AdS] globale. Et la ligne de texte est la [CFT]."

Mais d'où vient l'espace de l'espace AdS ? Si cet espace est émergent, de quoi émerge-t-il ? La réponse est un type d'interaction spécial et étrangement quantique dans la CFT : l'intrication, une connexion à longue distance entre des objets, corrélant instantanément leur comportement de manière statistiquement improbable. L'intrication a beaucoup troublé Einstein, qui l'a qualifiée d'"action étrange à distance".

Connaîtrons-nous un jour la véritable nature de l'espace et du temps ?

 Pourtant, malgré son caractère effrayant, l'intrication est une caractéristique essentielle de la physique quantique. Lorsque deux objets interagissent en mécanique quantique, ils s'intriquent généralement et le resteront tant qu'ils resteront isolés du reste du monde, quelle que soit la distance qui les sépare. Dans des expériences, les physiciens ont maintenu l'intrication entre des particules distantes de plus de 1 000 kilomètres et même entre des particules au sol et d'autres envoyées vers des satellites en orbite. En principe, deux particules intriquées pourraient maintenir leur connexion sur des côtés opposés de la galaxie ou de l'univers. La distance ne semble tout simplement pas avoir d'importance pour l'intrication, une énigme qui a troublé de nombreux physiciens pendant des décennies.

Mais si l'espace est émergent, la capacité de l'intrication à persister sur de grandes distances n'est peut-être pas si mystérieuse - après tout, la distance est une construction. Selon les études de la correspondance AdS/CFT menées par les physiciens Shinsei Ryu de l'université de Princeton et Tadashi Takayanagi de l'université de Kyoto, l'intrication est ce qui produit les distances dans l'espace AdS en premier lieu. Deux régions d'espace proches du côté AdS de la dualité correspondent à deux composantes quantiques hautement intriquées de la CFT. Plus elles sont intriquées, plus les régions de l'espace sont proches les unes des autres.

Ces dernières années, les physiciens en sont venus à soupçonner que cette relation pourrait également s'appliquer à notre univers. "Qu'est-ce qui maintient l'espace ensemble et l'empêche de se désagréger en sous-régions distinctes ? La réponse est l'intrication entre deux parties de l'espace", déclare Susskind. "La continuité et la connectivité de l'espace doivent leur existence à l'intrication quantique-mécanique". L'intrication pourrait donc sous-tendre la structure de l'espace lui-même, formant la chaîne et la trame qui donnent naissance à la géométrie du monde. "Si l'on pouvait, d'une manière ou d'une autre, détruire l'intrication entre deux parties [de l'espace], l'espace se désagrégerait", déclare Susskind. "Il ferait le contraire de l'émergence. Il désémergerait."

Si l'espace est fait d'intrication, l'énigme de la gravité quantique semble beaucoup plus facile à résoudre : au lieu d'essayer de rendre compte de la déformation de l'espace de manière quantique, l'espace lui-même émerge d'un phénomène fondamentalement quantique. Susskind pense que c'est la raison pour laquelle une théorie de la gravité quantique a été si difficile à trouver en premier lieu. "Je pense que la raison pour laquelle elle n'a jamais très bien fonctionné est qu'elle a commencé par une image de deux choses différentes, [la relativité générale] et la mécanique quantique, et qu'elle les a mises ensemble", dit-il. "Et je pense que l'idée est qu'elles sont beaucoup trop étroitement liées pour être séparées puis réunies à nouveau. La gravité n'existe pas sans la mécanique quantique".

Pourtant, la prise en compte de l'espace émergent ne représente que la moitié du travail. L'espace et le temps étant si intimement liés dans la relativité, tout compte rendu de l'émergence de l'espace doit également expliquer le temps. "Le temps doit également émerger d'une manière ou d'une autre", déclare Mark van Raamsdonk, physicien à l'université de Colombie-Britannique et pionnier du lien entre intrication et espace-temps. "Mais cela n'est pas bien compris et constitue un domaine de recherche actif".

Un autre domaine actif, dit-il, consiste à utiliser des modèles d'espace-temps émergent pour comprendre les trous de ver. Auparavant, de nombreux physiciens pensaient que l'envoi d'objets à travers un trou de ver était impossible, même en théorie. Mais ces dernières années, les physiciens travaillant sur la correspondance AdS/CFT et sur des modèles similaires ont trouvé de nouvelles façons de construire des trous de ver. "Nous ne savons pas si nous pourrions le faire dans notre univers", dit van Raamsdonk. "Mais ce que nous savons maintenant, c'est que certains types de trous de ver traversables sont théoriquement possibles". Deux articles - l'un en 2016 et l'autre en 2018 - ont conduit à une rafale de travaux en cours dans ce domaine. Mais même si des trous de ver traversables pouvaient être construits, ils ne seraient pas d'une grande utilité pour les voyages spatiaux. Comme le souligne Susskind, "on ne peut pas traverser ce trou de ver plus vite qu'il ne faudrait à [la lumière] pour faire le chemin inverse."

Si les théoriciens des cordes ont raison, alors l'espace est construit à partir de l'intrication quantique, et le temps pourrait l'être aussi. Mais qu'est-ce que cela signifie vraiment ? Comment l'espace peut-il être "fait" d'intrication entre des objets, à moins que ces objets ne soient eux-mêmes quelque part ? Comment ces objets peuvent-ils s'enchevêtrer s'ils ne connaissent pas le temps et le changement ? Et quel type d'existence les choses pourraient-elles avoir sans habiter un espace et un temps véritables ?

Ces questions frisent la philosophie, et les philosophes de la physique les prennent au sérieux. "Comment diable l'espace-temps pourrait-il être le genre de chose qui pourrait être émergent ?" demande Eleanor Knox, philosophe de la physique au King's College de Londres. Intuitivement, dit-elle, cela semble impossible. Mais Knox ne pense pas que ce soit un problème. "Nos intuitions sont parfois catastrophiques", dit-elle. Elles "ont évolué dans la savane africaine en interagissant avec des macro-objets, des macro-fluides et des animaux biologiques" et ont tendance à ne pas être transférées au monde de la mécanique quantique. En ce qui concerne la gravité quantique, "Où sont les objets ?" et "Où vivent-ils ?" ne sont pas les bonnes questions à poser", conclut Mme Knox.

Il est certainement vrai que les objets vivent dans des lieux dans la vie de tous les jours. Mais comme Knox et bien d'autres le soulignent, cela ne signifie pas que l'espace et le temps doivent être fondamentaux, mais simplement qu'ils doivent émerger de manière fiable de ce qui est fondamental. Prenons un liquide, explique Christian Wüthrich, philosophe de la physique à l'université de Genève. "En fin de compte, il s'agit de particules élémentaires, comme les électrons, les protons et les neutrons ou, plus fondamental encore, les quarks et les leptons. Les quarks et les leptons ont-ils des propriétés liquides ? Cela n'a aucun sens... Néanmoins, lorsque ces particules fondamentales se rassemblent en nombre suffisant et montrent un certain comportement ensemble, un comportement collectif, alors elles agiront d'une manière qui ressemble à un liquide."

Selon Wüthrich, l'espace et le temps pourraient fonctionner de la même manière dans la théorie des cordes et d'autres théories de la gravité quantique. Plus précisément, l'espace-temps pourrait émerger des matériaux que nous considérons habituellement comme vivant dans l'univers - la matière et l'énergie elles-mêmes. "Ce n'est pas que nous ayons d'abord l'espace et le temps, puis nous ajoutons de la matière", explique Wüthrich. "Au contraire, quelque chose de matériel peut être une condition nécessaire pour qu'il y ait de l'espace et du temps. Cela reste un lien très étroit, mais c'est juste l'inverse de ce que l'on aurait pu penser à l'origine."

Mais il existe d'autres façons d'interpréter les dernières découvertes. La correspondance AdS/CFT est souvent considérée comme un exemple de la façon dont l'espace-temps pourrait émerger d'un système quantique, mais ce n'est peut-être pas vraiment ce qu'elle montre, selon Alyssa Ney, philosophe de la physique à l'université de Californie, à Davis. "AdS/CFT vous donne cette capacité de fournir un manuel de traduction entre les faits concernant l'espace-temps et les faits de la théorie quantique", dit Ney. "C'est compatible avec l'affirmation selon laquelle l'espace-temps est émergent, et une certaine théorie quantique est fondamentale." Mais l'inverse est également vrai, dit-elle. La correspondance pourrait signifier que la théorie quantique est émergente et que l'espace-temps est fondamental, ou qu'aucun des deux n'est fondamental et qu'il existe une théorie fondamentale encore plus profonde. L'émergence est une affirmation forte, dit Ney, et elle est ouverte à la possibilité qu'elle soit vraie. "Mais, du moins si l'on s'en tient à AdS/CFT, je ne vois toujours pas d'argument clair en faveur de l'émergence."

Un défi sans doute plus important pour l'image de la théorie des cordes de l'espace-temps émergent est caché à la vue de tous, juste au nom de la correspondance AdS/CFT elle-même. "Nous ne vivons pas dans un espace anti-de Sitter", dit Susskind. "Nous vivons dans quelque chose de beaucoup plus proche de l'espace de Sitter". L'espace de Sitter décrit un univers en accélération et en expansion, comme le nôtre. "Nous n'avons pas la moindre idée de la façon dont [l'holographie] s'y applique", conclut M. Susskind. Trouver comment établir ce type de correspondance pour un espace qui ressemble davantage à l'univers réel est l'un des problèmes les plus urgents pour les théoriciens des cordes. "Je pense que nous allons être en mesure de mieux comprendre comment entrer dans une version cosmologique de ceci", dit van Raamsdonk.

Enfin, il y a les nouvelles - ou l'absence de nouvelles - provenant des derniers accélérateurs de particules, qui n'ont trouvé aucune preuve de l'existence des particules supplémentaires prévues par la supersymétrie, une idée sur laquelle repose la théorie des cordes. Selon la supersymétrie, toutes les particules connues auraient leurs propres "superpartenaires", ce qui doublerait le nombre de particules fondamentales. Mais le Grand collisionneur de hadrons du CERN, près de Genève, conçu en partie pour rechercher des superpartenaires, n'en a vu aucun signe. "Toutes les versions vraiment précises de [l'espace-temps émergent] dont nous disposons se trouvent dans des théories supersymétriques", déclare Susskind. "Une fois que vous n'avez plus de supersymétrie, la capacité à suivre mathématiquement les équations s'évapore tout simplement de vos mains".

LES ATOMES DE L'ESPACE-TEMPS

La théorie des cordes n'est pas la seule idée qui suggère que l'espace-temps est émergent. La théorie des cordes "n'a pas réussi à tenir [ses] promesses en tant que moyen d'unir la gravité et la mécanique quantique", déclare Abhay Ashtekar, physicien à l'université d'État de Pennsylvanie. "La puissance de la théorie des cordes réside désormais dans le fait qu'elle fournit un ensemble d'outils extrêmement riche, qui ont été largement utilisés dans tout le spectre de la physique." Ashtekar est l'un des pionniers originaux de l'alternative la plus populaire à la théorie des cordes, connue sous le nom de gravité quantique à boucles. Dans la gravité quantique à boucles, l'espace et le temps ne sont pas lisses et continus, comme c'est le cas dans la relativité générale, mais ils sont constitués de composants discrets, ce qu'Ashtekar appelle des "morceaux ou atomes d'espace-temps".

Ces atomes d'espace-temps sont connectés en réseau, avec des surfaces unidimensionnelles et bidimensionnelles qui les réunissent en ce que les praticiens de la gravité quantique à boucle appellent une mousse de spin. Et bien que cette mousse soit limitée à deux dimensions, elle donne naissance à notre monde quadridimensionnel, avec trois dimensions d'espace et une de temps. Ashtekar compare ce monde à un vêtement. "Si vous regardez votre chemise, elle ressemble à une surface bidimensionnelle", dit-il. "Si vous prenez une loupe, vous verrez immédiatement qu'il s'agit de fils unidimensionnels. C'est juste que ces fils sont si denses que, pour des raisons pratiques, vous pouvez considérer la chemise comme une surface bidimensionnelle. De même, l'espace qui nous entoure ressemble à un continuum tridimensionnel. Mais il y a vraiment un entrecroisement par ces [atomes d'espace-temps]".

Bien que la théorie des cordes et la gravité quantique à boucles suggèrent toutes deux que l'espace-temps est émergent, le type d'émergence est différent dans les deux théories. La théorie des cordes suggère que l'espace-temps (ou du moins l'espace) émerge du comportement d'un système apparemment sans rapport, sous forme d'intrication. Pensez à la façon dont les embouteillages émergent des décisions collectives des conducteurs individuels. Les voitures ne sont pas faites de la circulation - ce sont les voitures qui font la circulation. Dans la gravité quantique à boucles, par contre, l'émergence de l'espace-temps ressemble davantage à une dune de sable en pente émergeant du mouvement collectif des grains de sable dans le vent. L'espace-temps lisse et familier provient du comportement collectif de minuscules "grains" d'espace-temps ; comme les dunes, les grains sont toujours du sable, même si les gros grains cristallins n'ont pas l'apparence ou le comportement des dunes ondulantes.

Malgré ces différences, gravité quantique à boucles et  théorie des cordes suggèrent toutes deux que l'espace-temps émerge d'une réalité sous-jacente. Elles ne sont pas non plus les seules théories proposées de la gravité quantique qui vont dans ce sens. La théorie de l'ensemble causal, un autre prétendant à une théorie de la gravité quantique, postule que l'espace et le temps sont également constitués de composants plus fondamentaux. "Il est vraiment frappant de constater que, pour la plupart des théories plausibles de la gravité quantique dont nous disposons, leur message est, en quelque sorte, que l'espace-temps relativiste général n'existe pas au niveau fondamental", déclare Knox. "Les gens sont très enthousiastes lorsque différentes théories de la gravité quantique s'accordent au moins sur quelque chose."

L'AVENIR DE L'ESPACE AUX CONFINS DU TEMPS

La physique moderne est victime de son propre succès. La physique quantique et la relativité générale étant toutes deux d'une précision phénoménale, la gravité quantique n'est nécessaire que pour décrire des situations extrêmes, lorsque des masses énormes sont entassées dans des espaces insondables. Ces conditions n'existent que dans quelques endroits de la nature, comme le centre d'un trou noir, et surtout pas dans les laboratoires de physique, même les plus grands et les plus puissants. Il faudrait un accélérateur de particules de la taille d'une galaxie pour tester directement le comportement de la nature dans des conditions où règne la gravité quantique. Ce manque de données expérimentales directes explique en grande partie pourquoi la recherche d'une théorie de la gravité quantique par les scientifiques a été si longue.

Face à l'absence de preuves, la plupart des physiciens ont placé leurs espoirs dans le ciel. Dans les premiers instants du big bang, l'univers entier était phénoménalement petit et dense - une situation qui exige une gravité quantique pour le décrire. Et des échos de cette époque peuvent subsister dans le ciel aujourd'hui. "Je pense que notre meilleure chance [de tester la gravité quantique] passe par la cosmologie", déclare Maldacena. "Peut-être quelque chose en cosmologie que nous pensons maintenant être imprévisible, qui pourra peut-être être prédit une fois que nous aurons compris la théorie complète, ou une nouvelle chose à laquelle nous n'avions même pas pensé."

Les expériences de laboratoire pourraient toutefois s'avérer utiles pour tester la théorie des cordes, du moins indirectement. Les scientifiques espèrent étudier la correspondance AdS/CFT non pas en sondant l'espace-temps, mais en construisant des systèmes d'atomes fortement intriqués et en observant si un analogue à l'espace-temps et à la gravité apparaît dans leur comportement. De telles expériences pourraient "présenter certaines caractéristiques de la gravité, mais peut-être pas toutes", déclare Maldacena. "Cela dépend aussi de ce que l'on appelle exactement la gravité".

Connaîtrons-nous un jour la véritable nature de l'espace et du temps ? Les données d'observation du ciel ne seront peut-être pas disponibles de sitôt. Les expériences en laboratoire pourraient être un échec. Et comme les philosophes le savent bien, les questions sur la véritable nature de l'espace et du temps sont très anciennes. Ce qui existe "est maintenant tout ensemble, un, continu", disait le philosophe Parménide il y a 2 500 ans. "Tout est plein de ce qui est". Parménide insistait sur le fait que le temps et le changement étaient des illusions, que tout partout était un et le même. Son élève Zénon a créé de célèbres paradoxes pour prouver le point de vue de son professeur, prétendant démontrer que le mouvement sur n'importe quelle distance était impossible. Leurs travaux ont soulevé la question de savoir si le temps et l'espace étaient en quelque sorte illusoires, une perspective troublante qui a hanté la philosophie occidentale pendant plus de deux millénaires.

Le fait que les Grecs de l'Antiquité aient posé des questions telles que "Qu'est-ce que l'espace ?", "Qu'est-ce que le temps ?", "Qu'est-ce que le changement ?" et que nous posions encore des versions de ces questions aujourd'hui signifie qu'il s'agissait des bonnes questions à poser", explique M. Wüthrich. "C'est en réfléchissant à ce genre de questions que nous avons appris beaucoup de choses sur la physique".

Auteur: Becker Adam

Info: Scientific American, février 2022

[ monde de l'observateur humain ] [ univers nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel