Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 47
Temps de recherche: 0.0555s

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

indéterminisme

L'essor des thérapies quantiques
Basée sur les découvertes de la physique quantique, une nouvelle façon de se soigner fait de plus en plus parler d'elle. Son postulat : nos cellules émettent des informations, qui déterminent notre état de santé et sur lesquelles il est possible d'agir. Explications.
"Il y a dix ans, on m'a diagnostiqué un lupus érythémateux, une maladie auto-immune chronique, raconte Lucia, une artiste de 50 ans. Depuis, suivie à l'hôpital, j'en étais arrivée à prendre onze médicaments par jour... Il y a six mois, un ami est venu me voir bouleversé après avoir essayé une nouvelle technique de soin qui, disait-il, n'avait rien à voir ni avec la médecine conventionnelle, ni avec les médecines naturelles. Une "machine" donnait des résultats dont l'exactitude l'avait dérouté. Je suis cartésienne et je n'ai pas peur des expériences nouvelles. J'ai donc consulté un thérapeute qui utilise cet appareil de biofeedback. En quelques minutes, l'écran a affiché clairement tout mon parcours médical ! Puis cette machine a effectué un traitement très étrange, consistant à envoyer des "informations" dans le corps. Après quelques séances, la plupart de mes symptômes ont disparu et, aujourd'hui, avec l'accord de mon médecin, je ne prends plus qu'un médicament par jour."
Un diagnostic global
Un appareil capable d'effectuer un diagnostic précis et de traiter aussi rapidement une maladie auto-immune ? Si un cas ne vaut pas pour tous, les résultats sont étonnants. Et ce n'est qu'un des aspects de cette approche de la santé physique et psychique, qui se répand au point que certains médecins et chercheurs n'hésitent plus à dire qu'un changement de paradigme est en train de s'opérer. Le premier congrès sur les thérapies quantiques d'Aix-en- Provence, en novembre 2010, a réuni des scientifiques du monde entier, parmi lesquels l'équipe du professeur Luc Montagnier, prix Nobel de médecine 2008. Depuis, les livres sur le sujet, les congrès affichant complets, les appareils de biofeedback ou les méthodes quantiques se multiplient...
Les "thérapies quantiques", ou la "médecine quantique", nous demandent de voir la vie, la santé et la maladie d'une tout autre façon : notre corps n'est plus un assemblage d'organes à traiter séparément, comme le fait la médecine conventionnelle, c'est un champ vibratoire et énergétique constitué de milliards de particules de lumière - des photons - qui échangent en permanence des informations, un univers lumineux dans lequel l'esprit et la matière ne font qu'un. Avec une idée clé : ce ne sont pas les échanges biochimiques de nos cellules qui déterminent notre état de santé, mais les informations qu'elles se communiquent entre elles. Ici, l'origine de la maladie n'est donc pas un problème purement biologique, mais un défaut d'information ; le symptôme n'est qu'une réaction à ce dernier.
Pour celui qui ne connaît pas le monde scientifique, l'idée peut sembler délirante. Pourtant, elle repose sur des dizaines d'années de recherches, commencées il y a un siècle avec Albert Einstein et ses travaux sur la nature de la lumière. Au fil des décennies, la physique quantique - qui décrit le comportement des atomes et des particules subatomiques - s'est développée en marge de la physique classique, car elle ne répond pas aux mêmes règles. La plus importante, pour comprendre le fondement de la médecine quantique : les ondes électromagnétiques sont en même temps des photons. Ces photons du corps humain sont loin d'être des vues de l'esprit : au cours des années 1970, Fritz-Albert Popp, un biophysicien allemand, a découvert l'existence de ce qu'il a appelé les " bi photons ", des particules de lumière émises par nos cellules, qu'il a réussi à filmer. Ces minuscules courants lumineux, invisibles à l'oeil nu, portent les informations et contrôlent notre organisme. Mais pas n'importe comment.
Des capacités d'auto guérison stimulées
L'une des découvertes les plus importantes de la physique quantique, reprise et développée dans la thérapie quantique, est, en effet, la théorie des "champs énergétiques" : ce sont eux qui organisent et contrôlent notre corps. Ils forment un tout. En somme, le corps humain est une structure organisée d'informations. Ce que les Chinois ont compris depuis longtemps avec l'acupuncture, qui traite les flux d'énergie du corps ; ou les Indiens, avec leur médecine ayurvédique qui traite le "corps de lumière" et ses chakras...
Les appareils de biofeedback quantiques sont conçus pour détecter les ondes électromagnétiques, les " fréquences " émises par chacune des cellules de notre corps. Lorsque certaines sont brouillées ou " fausses ", l'appareil renvoie des fréquences " justes " afin de corriger le problème. Imaginez que vous ayez un coup de déprime. Vous appelez votre meilleur ami. Ses paroles rassurantes vous remontent le moral et vous retrouvez assez d'énergie pour reprendre le cours normal de votre vie. L'aide reçue n'est pas " physique ", mais vient des mots réconfortants. Or ce flot d'informations vous a été transmis par les fréquences du téléphone. Voilà, de manière imagée, comment fonctionnent les appareils de médecine quantique : ils envoient des ondes extrêmement fines qui " parlent " à nos cellules et leur transmettent des informations, elles-mêmes portées par les photons. Pour reprendre la métaphore, on pourrait dire que les fréquences sont les phrases réconfortantes de votre ami ; et les photons, les mots, avec leur sens.
Si la thérapie quantique fait usage d'appareils électroniques de plus en plus sophistiqués, comme le Scio, le Korotkov, le Mora ou le Life, cette approche de la médecine n'est pour autant pas mécaniste : les machines ne fonctionnent pas seules. " En "dialoguant" avec notre champ d'informations, ces appareils stimulent nos capacités d'auto guérison, explique la journaliste et conférencière Lynn McTaggart, auteure du Lien quantique (Macro 2012). Mais rien ne peut se faire sans la présence d'un médecin ou d'un thérapeute. " Une interaction d'autant plus importante que cette nouvelle vision de la santé, donc de la vie, implique non seulement une relation entre le corps et l'esprit, mais l'union fondamentale de l'esprit et de la matière.
J'ai testé un appareil de biofeedback
Des électrodes, un écran d'ordinateur, des graphiques... Notre journaliste, Odile Chabrillac, a confié son corps au Scio, une machine destinée à diagnostiquer les défaillances de l'organisme et à rééquilibrer ce dernier.
" Sitôt arrivée dans le cabinet du praticien en biofeedback qui utilise le Scio, l'un des appareils de médecine quantique dont on parle le plus en ce moment, me voilà assise confortablement et harnachée d'électrodes aux chevilles, aux poignets et sur le front. Face à moi, un mur blanc sur lequel est projeté un écran d'ordinateur rempli d'informations et de graphiques. Adrian M., le thérapeute, me soumet d'abord à un questionnaire sur mon âge, mes habitudes d'hygiène de vie, les maladies et opérations passées, mon niveau de stress... Puis, pendant trois minutes, je suis priée de rester la plus détendue possible, car cette machine va envoyer des milliers d'infirmes fréquences dans mon organisme - plus de dix mille !-, comme autant de questions auxquelles chacune de mes cellules et chacun de mes organes devront répondre. Je ne sens rien, juste de légers picotements...
Le Scio fait un bilan très complet, physiologique et émotionnel. Il affiche d'abord des chiffres sur l'énergie, la pression sanguine, l'hydratation, l'oxygénation, le pH, la vitalité et les échanges cellulaires, la capacité de régénération de mon organisme... L'ensemble est plutôt bon, voire très bon. Ouf ! En revanche, il relève que je suis légèrement intoxiquée par certains produits, le chlore en particulier, et que mon niveau de stress est bien trop important. Le thérapeute me montre les graphiques et m'explique que le stress peut avoir un impact sur ma thyroïde, mon système endocrinien, et sur certains lobes cérébraux, avec un risque de maladie d'Alzheimer. Car cette machine évalue aussi les problèmes potentiels de chaque individu.
Adrian M. me rassure : les appareils quantiques sont fondés sur les probabilités, non sur des certitudes absolues : " C'est comme la météo, m'explique-t-il, si l'on nous annonce de la pluie, mieux vaut prendre un parapluie, mais cela ne veut pas dire qu'il pleuvra ! " Pendant près d'une heure, la machine va procéder au traitement, en renvoyant des fréquences justes pour corriger celles qui sont faussées. En somme, elle donne au corps les bonnes réponses aux questions qu'elle a posées. Là encore, je ne sens rien. La séance dure une heure et demie. (Compter 60 € la séance - prix donné à titre indicatif).
Bilan : si mon mode de vie est plutôt sain, je suis capable de m'empoisonner l'existence, au sens littéral du terme, avec mes " prises de tête ". Voilà ce qui est étonnant ici : cet appareil tient autant compte des facteurs physiologiques et biologiques que de mes émotions, de mon état d'esprit mental et moral, de certains problèmes psychologiques. La fin de la séance se conclut par quelques conseils supplémentaires : boire davantage, bouger, pratiquer le yoga si je peux, rythmer mon mode de vie en fonction de la saison. Le Scio suggère quelques remèdes homéopathiques pour optimiser mon état corporel, mon mental et mon énergie. Sortie de la séance enthousiaste et détendue, je me suis sentie épuisée tout l'après-midi et me réveillerai le lendemain matin légèrement courbaturée. Rendez-vous a été pris pour vérifier si mes efforts auront déjà eu un véritable impact sur mon corps et mon esprit.

Auteur: Pigani Erik

Info:

[ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

neuroscience

La conscience est un continuum et les scientifiques commencent à le mesurer

Une nouvelle technique aide les anesthésiologistes à suivre les changements dans les états de conscience

Que signifie être conscient ? Les gens réfléchissent et écrivent sur cette question depuis des millénaires. Pourtant, de nombreux aspects de l’esprit conscient restent un mystère, notamment la manière de le mesurer et de l’ évaluer. Qu'est-ce qu'une unité de conscience ? Existe-t-il différents niveaux de conscience ? Qu'arrive-t-il à la conscience pendant le sommeil, le coma et l'anesthésie générale ?

En tant qu’anesthésiologistes, nous réfléchissons souvent à ces questions. Nous promettons chaque jour aux patients qu’ils seront déconnectés du monde extérieur et de leurs pensées intérieures pendant l’opération, qu’ils ne conserveront aucun souvenir de l’expérience et qu’ils ne ressentiront aucune douleur. Ainsi, l’anesthésie générale a permis d’énormes progrès médicaux, depuis les réparations vasculaires microscopiques jusqu’aux greffes d’organes solides.

En plus de leur impact considérable sur les soins cliniques, les anesthésiques sont devenus de puissants outils scientifiques pour sonder les questions relatives à la conscience. Ils nous permettent d’induire des changements profonds et réversibles dans les états de conscience et d’étudier les réponses cérébrales lors de ces transitions.

Mais l’un des défis auxquels sont confrontés les anesthésiologistes est de mesurer la transition d’un état à un autre. En effet, bon nombre des approches existantes interrompent ou perturbent ce que nous essayons d'étudier. Essentiellement, l’évaluation du système affecte le système. Dans les études sur la conscience humaine, déterminer si une personne est consciente peut éveiller la personne étudiée, ce qui perturbe cette évaluation même. Pour relever ce défi, nous avons adapté une approche simple que nous appelons la méthode respirer-squeeze. Cela nous offre un moyen d'étudier les changements de l'état de conscience sans les interrompre.

Pour comprendre cette approche, il est utile de considérer quelques enseignements issus d’études sur la conscience qui ont utilisé des anesthésiques. Depuis des décennies, les chercheurs utilisent l’électroencéphalographie (EEG) pour observer l’activité électrique dans le cerveau de personnes recevant divers anesthésiques. Ils peuvent ensuite analyser cette activité avec des lectures EEG pour caractériser les modèles spécifiques à divers anesthésiques, appelés signatures anesthésiques.

Ces recherches révèlent que la plupart des médicaments anesthésiques ralentissent les rythmes cérébraux et augmentent leur taille, effets qui altèrent la communication entre les régions du cerveau. Par exemple, une étude récente a révélé que le propofol, le médicament le plus couramment utilisé pour l’anesthésie générale, perturbe la façon dont les régions du cerveau travaillent généralement ensemble pour traiter les informations sensorielles.

La conscience, comme le révèlent cette recherche et d’autres, n’est pas simplement un système binaire – activé ou désactivé, conscient ou inconscient – ​​mais plutôt quelque chose qui peut englober un continuum de différents états qui impliquent différents types de fonctionnement du cerveau. Par exemple, la conscience peut être connectée à l'environnement par le biais de nos sens et de notre comportement (conscience connectée), comme lors de la plupart de nos heures d'éveil, ou déconnectée de notre environnement (conscience déconnectée), comme lorsque nous rêvons pendant le sommeil.

L’inconscience – comme lorsqu’une personne est dans le coma – est plus difficile à étudier que la conscience connectée ou déconnectée, mais elle est généralement comprise comme un état d’oubli, vide d’expérience subjective ou de mémoire. Lorsque nous préparons un patient à une intervention chirurgicale, nous ajustons les niveaux d’anesthésie pour le rendre inconscient. Lorsqu’une personne est sous anesthésie générale, elle vit un coma temporaire et réversible pendant lequel elle ne ressent aucune douleur et après quoi elle n’aura plus aucun souvenir de son intervention.

Comprendre les transitions entre ces états est essentiel pour garantir des niveaux adéquats d’anesthésie générale et pour éclairer les questions de recherche en anesthésiologie, sur la conscience, le sommeil et le coma. Pour mieux cartographier la transition hors de la conscience connectée, nous avons récemment adapté une nouvelle approche pour surveiller la capacité d'une personne à générer des comportements volontaires sans incitation externe.

Généralement, les chercheurs suivent le début de la sédation en émettant des commandes verbales et en enregistrant les réponses comportementales. Par exemple, un scientifique peut périodiquement demander à quelqu’un d’ouvrir les yeux ou d’appuyer sur un bouton tout en recevant une perfusion anesthésique. Une fois que la personne cesse de répondre à cette commande, le scientifique suppose qu’elle a perdu la conscience connectée.

Cette technique s’est avérée utile pour contraster l’esprit conscient connecté et déconnecté. Mais lorsqu’il s’agit de comprendre la transition entre ces états, il y a plusieurs inconvénients. D’une part, le signal auditif n’est pas standardisé : l’inflexion et le volume de la voix, ce qui est dit et la fréquence à laquelle il est répété varient d’une étude à l’autre et même au sein d’une même étude. Un problème plus fondamental est que ces commandes peuvent éveiller les gens lorsqu’ils dérivent vers un état de déconnexion. Cette limitation signifie que les chercheurs doivent souvent attendre plusieurs minutes entre l’émission de commandes verbales et l’évaluation de la réponse, ce qui ajoute de l’incertitude quant au moment exact de la transition.

Dans notre étude, nous souhaitions une approche plus sensible et précise pour mesurer le début de la sédation sans risquer de perturber la transition. Nous nous sommes donc tournés vers une méthode décrite pour la première fois en 2014 par des chercheurs sur le sommeil du Massachusetts General Hospital et de l’Université Johns Hopkins. Dans ce travail, les enquêteurs ont demandé aux participants de serrer une balle à chaque fois qu'ils inspiraient. Les chercheurs ont suivi les pressions de chaque personne à l'aide d'un dynamomètre, un outil pour mesurer la force de préhension, et d'un capteur électromyographique, qui mesure la réponse musculaire. De cette façon, ils ont pu suivre avec précision le processus d’endormissement sans le perturber.

Pour notre étude, nous avons formé 14 volontaires en bonne santé à cette même tâche et présenté l’exercice de respiration en pressant comme une sorte de méditation de pleine conscience. Nous avons demandé aux participants de se concentrer sur leur respiration et de serrer un dynamomètre portatif chaque fois qu'ils inspirent. Après quelques minutes d'entraînement pour chaque personne, nous avons placé un cathéter intraveineux dans son bras pour administrer le sédatif et installé des moniteurs de signes vitaux et un équipé d'un capuchon EEG à 64 canaux pour enregistrer les ondes cérébrales tout au long de l'expérience.

Tous les participants ont synchronisé de manière fiable leurs pressions avec leur respiration pendant une période de référence initiale sans aucune sédation. Ils ont ensuite reçu une perfusion lente de dexmédétomidine, un sédatif couramment utilisé dans les salles d'opération et les unités de soins intensifs. À mesure que les concentrations cérébrales de dexmédétomidine augmentaient, les participants manquaient parfois une pression ou la prenaient au mauvais moment. Finalement, ils ont complètement arrêté de serrer.

Après quelques tests supplémentaires, nous avons arrêté la perfusion de dexmédétomidine, permettant ainsi aux participants de se remettre de la sédation. À notre grand étonnement, après une période de 20 à 30 minutes, tout le monde s'est souvenu de la tâche et a commencé à serrer spontanément en synchronisation avec sa respiration, sans aucune incitation. Cela nous a permis d'analyser à la fois le moment du début et du décalage de la sédation et de les comparer avec des études antérieures utilisant des commandes verbales pour évaluer la conscience.

La tâche de respiration et de compression est donc clairement une approche plus sensible pour mesurer la transition hors de la conscience connectée. Les participants ont arrêté d'effectuer la tâche à des concentrations de dexmédétomidine inférieures à celles auxquelles les personnes avaient cessé de répondre aux signaux auditifs dans d'autres études, soulignant les effets excitants des signaux externes sur le système. Ces résultats peuvent également indiquer que la conscience connectée peut être décomposée en comportements générés en interne (comme se rappeler de serrer une balle pendant que vous inspirez) et en comportements provoqués de l'extérieur (comme répondre à des commandes verbales) avec des points de transition distincts - une idée qui affine notre compréhension du continuum de la conscience.

Des recherches antérieures ont caractérisé l'apparence du cerveau dans des états de conscience connectée et déconnectée. Nous savions donc généralement à quoi s'attendre des enregistrements EEG. Mais nous étions moins sûrs de la façon dont notre technique pourrait s’aligner sur la transition cérébrale entre les états de conscience. Nous avons découvert un schéma très clair de changements dans le cerveau lorsque les gens arrêtent de serrer le ballon. De plus, nous n’avons vu aucune preuve que la tâche de compression perturbe l’état de conscience des personnes. L'EEG a également révélé un calendrier beaucoup plus précis pour ce changement que les travaux antérieurs, identifiant la transition dans une période environ 10 fois plus courte que ce qui était possible avec les signaux auditifs - une fenêtre de cinq à six secondes au lieu des 30 secondes. - à un intervalle de 120 secondes qui était courant dans les travaux antérieurs.

Comme avantage supplémentaire, nous avons été ravis de découvrir que de nombreux participants à notre étude appréciaient la tâche de respiration pressée comme moyen de se concentrer sur l'apaisement de leur esprit et de leur corps. Pour cette raison, nous avons également mis en œuvre la méthode dans la pratique clinique, c’est-à-dire en dehors d’études soigneusement contrôlées, lors de l’induction d’une anesthésie générale lors d’interventions chirurgicales majeures, qui peuvent autrement être une expérience stressante pour les patients.

Nous nous appuyons désormais sur ce travail en analysant nos données EEG, ainsi que les données d'imagerie par résonance magnétique structurelle (IRM) de nos volontaires. Ces connaissances sur le passage d’une conscience connectée à une conscience déconnectée peuvent aider à éclairer les soins cliniques des patients nécessitant une anesthésie pour une intervention chirurgicale, ainsi que de ceux qui souffrent de troubles du sommeil ou de coma. Ces études nous mettent également au défi de nous attaquer aux aspects plus philosophiques de la conscience et pourraient ainsi éclairer la question fondamentale de ce que signifie être conscient.

Auteur: Internet

Info: 26 janv, 2024    Christian Guay et Emery Brown

[ réveillé ] [ assoupi ] [ entendement ] [ présence ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

aliénisme

La cause de la dépression n’est probablement pas celle que vous pensez

La dépression a souvent été imputée à de faibles niveaux de sérotonine dans le cerveau. Cette réponse est insuffisante, mais des alternatives apparaissent et modifient notre compréhension de la maladie.

Les gens pensent souvent savoir ce qui cause la dépression chronique. Des enquêtes indiquent que plus de 80 % de la population attribue la responsabilité à un " déséquilibre chimique " dans le cerveau. Cette idée est répandue dans la psychologie populaire et citée dans des documents de recherche et des manuels de médecine. L'écoute de Prozac, un livre qui décrit la valeur révolutionnaire du traitement de la dépression avec des médicaments visant à corriger ce déséquilibre, a passé des mois sur la liste des best-sellers du New York Times.

La substance chimique cérébrale déséquilibrée en question est la sérotonine, un neurotransmetteur important aux effets légendaires de " bien-être ". La sérotonine aide à réguler les systèmes cérébraux qui contrôlent tout, de la température corporelle au sommeil, en passant par la libido et la faim. Depuis des décennies, il est également présenté comme le produit pharmaceutique le plus efficace dans la lutte contre la dépression. Les médicaments largement prescrits comme le Prozac (fluoxétine) sont conçus pour traiter la dépression chronique en augmentant les niveaux de sérotonine.

Pourtant, les causes de la dépression vont bien au-delà de la carence en sérotonine. Les études cliniques ont conclu à plusieurs reprises que le rôle de la sérotonine dans la dépression avait été surestimé. En effet, l’ensemble de la théorie du déséquilibre chimique pourrait être erroné, malgré le soulagement que le Prozac semble apporter à de nombreux patients.

Une revue de la littérature parue dans Molecular Psychiatry en juillet a sonné le glas le plus récent et peut-être le plus fort de l’hypothèse de la sérotonine, du moins dans sa forme la plus simple. Une équipe internationale de scientifiques dirigée par Joanna Moncrieff de l'University College London a examiné 361 articles dans six domaines de recherche et en a soigneusement évalué 17. Ils n’ont trouvé aucune preuve convaincante que des niveaux plus faibles de sérotonine provoquaient ou étaient même associés à la dépression. Les personnes souffrant de dépression ne semblaient pas avoir une activité sérotoninergique inférieure à celle des personnes non atteintes. Les expériences dans lesquelles les chercheurs abaissaient artificiellement les niveaux de sérotonine des volontaires n’entraînaient pas systématiquement une dépression. Les études génétiques semblaient également exclure tout lien entre les gènes affectant les niveaux de sérotonine et la dépression, même lorsque les chercheurs essayaient de considérer le stress comme un cofacteur possible.

" Si vous pensez toujours qu'il s'agissait simplement d'un déséquilibre chimique de la sérotonine, alors oui, c'est assez accablant", a déclaré Taylor Braund , neuroscientifique clinicien et chercheur postdoctoral au Black Dog Institute en Australie, qui n'a pas participé à l'étude. nouvelle étude. (" Le chien noir " était le terme utilisé par Winston Churchill pour désigner ses propres humeurs sombres, que certains historiens pensent être une dépression.)

La prise de conscience que les déficits de sérotonine en eux-mêmes ne provoquent probablement pas la dépression a amené les scientifiques à se demander ce qui pouvait en être la cause. Les faits suggèrent qu’il n’y a peut-être pas de réponse simple. En fait, cela amène les chercheurs en neuropsychiatrie à repenser ce que pourrait être la dépression.

Traiter la mauvaise maladie

L’intérêt porté à la sérotonine dans la dépression a commencé avec un médicament contre la tuberculose. Dans les années 1950, les médecins ont commencé à prescrire de l’iproniazide, un composé développé pour cibler la bactérie Mycobacterium tuberculosis vivant dans les poumons. Le médicament n’était pas particulièrement efficace pour traiter les infections tuberculeuses, mais il a béni certains patients avec un effet secondaire inattendu et agréable. "Leur fonction pulmonaire et tout le reste ne s'améliorait pas beaucoup, mais leur humeur avait tendance à s'améliorer", a déclaré Gerard Sanacora, psychiatre clinicien et directeur du programme de recherche sur la dépression à l'Université de Yale.

(Photo : Pour évaluer les preuves selon lesquelles les déséquilibres en sérotonine provoquent la dépression, la chercheuse en psychiatrie Joanna Moncrieff de l'University College London a organisé une récapitulation qui a examiné des centaines d'articles dans six domaines de recherche.) 

Perplexes face à ce résultat, les chercheurs ont commencé à étudier le fonctionnement de l'iproniazide et des médicaments apparentés dans le cerveau des rats et des lapins. Ils ont découvert que les médicaments empêchaient le corps des animaux d'absorber des composés appelés amines, parmi lesquels se trouve la sérotonine, un produit chimique qui transmet les messages entre les cellules nerveuses du cerveau.

Plusieurs psychologues éminents, parmi lesquels les regrettés cliniciens Alec Coppen et Joseph Schildkraut, se sont emparés de l'idée que la dépression pourrait être causée par un déficit chronique de sérotonine dans le cerveau. L’hypothèse de la dépression liée à la sérotonine a ensuite inspiré des décennies de développement de médicaments et de recherche neuroscientifique. À la fin des années 1980, cela a conduit à l’introduction de médicaments inhibiteurs sélectifs du recaptage de la sérotonine (ISRS), comme le Prozac. (Ces médicaments augmentent les niveaux d'activité de la sérotonine en ralentissant l'absorption du neurotransmetteur par les neurones.)  Aujourd'hui, l'hypothèse de la sérotonine reste l'explication la plus souvent donnée aux patients souffrant de dépression lorsqu'on leur prescrit des ISRS.

Mais des doutes sur le modèle sérotoninergique circulaient au milieu des années 1990. Certains chercheurs ont remarqué que les ISRS ne répondaient souvent pas aux attentes et n’amélioraient pas de manière significative les performances de médicaments plus anciens comme le lithium. " Les études ne concordaient pas vraiment ", a déclaré Moncrieff.

Au début des années 2000, peu d’experts pensaient que la dépression était causée uniquement par un manque de sérotonine, mais personne n’a jamais tenté une évaluation complète de ces preuves. Cela a finalement incité Moncrieff à organiser une telle étude, " afin que nous puissions avoir une idée si cette théorie était étayée ou non ", a-t-elle déclaré.

Elle et ses collègues ont découvert que ce n’était pas le cas, mais l’hypothèse de la sérotonine a toujours des adeptes. En octobre dernier – quelques mois seulement après la parution de leur étude – un article publié en ligne dans Biological Psychiatry prétendait offrir une validation concrète de la théorie de la sérotonine. D'autres chercheurs restent cependant sceptiques, car l'étude n'a porté que sur 17 volontaires. Moncrieff a rejeté les résultats comme étant statistiquement insignifiants.

Un déséquilibre chimique différent

Bien que les niveaux de sérotonine ne semblent pas être le principal facteur de dépression, les ISRS montrent une légère amélioration par rapport aux placebos dans les essais cliniques. Mais le mécanisme à l’origine de cette amélioration reste insaisissable. "Ce n'est pas parce que l'aspirine soulage les maux de tête que les déficits en aspirine dans le corps provoquent des maux de tête", a déclaré John Krystal , neuropharmacologue et directeur du département de psychiatrie de l'Université de Yale. " Comprendre pleinement comment les ISRS produisent des changements cliniques est encore un travail en cours. "

Les spéculations sur la source de ce bénéfice ont donné naissance à des théories alternatives sur les origines de la dépression.

Malgré le terme " sélectif " dans leur nom, certains ISRS modifient les concentrations relatives de produits chimiques autres que la sérotonine. Certains psychiatres cliniciens pensent que l’un des autres composés pourrait être la véritable force induisant ou soulageant la dépression. Par exemple, les ISRS augmentent les niveaux circulants de tryptophane, un acide aminé, un précurseur de la sérotonine qui aide à réguler les cycles de sommeil. Au cours des 15 dernières années, ce produit chimique est devenu un candidat sérieux pour prévenir la dépression. "Les études sur la déplétion en tryptophane fournissent des preuves assez solides", a déclaré Michael Browning , psychiatre clinicien à l'Université d'Oxford.

Un certain nombre d' études sur l'épuisement du tryptophane ont révélé qu'environ les deux tiers des personnes récemment remises d'un épisode dépressif rechuteront lorsqu'elles suivront un régime artificiellement pauvre en tryptophane. Les personnes ayant des antécédents familiaux de dépression semblent également vulnérables à une carence en tryptophane. Et le tryptophane a pour effet secondaire d’augmenter les niveaux de sérotonine dans le cerveau.

Des preuves récentes suggèrent également que le tryptophane et la sérotonine pourraient contribuer à la régulation des bactéries et autres microbes se développant dans l’intestin, et que les signaux chimiques émis par ce microbiote pourraient affecter l’humeur. Bien que les mécanismes exacts liant le cerveau et l’intestin soient encore mal compris, ce lien semble influencer le développement du cerveau. Cependant, comme la plupart des études sur la déplétion en tryptophane ont jusqu’à présent été limitées, la question est loin d’être réglée.

D'autres neurotransmetteurs comme le glutamate, qui joue un rôle essentiel dans la formation de la mémoire, et le GABA, qui empêche les cellules de s'envoyer des messages, pourraient également être impliqués dans la dépression, selon Browning. Il est possible que les ISRS agissent en modifiant les quantités de ces composés dans le cerveau.

Moncrieff considère la recherche d'autres déséquilibres chimiques à l'origine de la dépression comme une tentative de changement de marque plutôt que comme une véritable nouvelle ligne de recherche. " Je dirais qu’ils souscrivent toujours à quelque chose comme l’hypothèse de la sérotonine ", a-t-elle déclaré – l’idée selon laquelle les antidépresseurs agissent en inversant certaines anomalies chimiques dans le cerveau. Elle pense plutôt que la sérotonine a des effets si répandus dans le cerveau que nous pourrions avoir du mal à dissocier son effet antidépresseur direct des autres changements dans nos émotions ou sensations qui remplacent temporairement les sentiments d’anxiété et de désespoir.

Réponses génétiques

Toutes les théories sur la dépression ne reposent pas sur des déficits en neurotransmetteurs. Certains recherchent des coupables au niveau génétique.

Lorsque la première ébauche de séquence à peu près complète du génome humain a été annoncée en 2003, elle a été largement saluée comme le fondement d’une nouvelle ère en médecine. Au cours des deux décennies qui ont suivi, les chercheurs ont identifié des gènes à l’origine d’un large éventail de troubles, dont environ 200 gènes associés à un risque de dépression. (Plusieurs centaines de gènes supplémentaires ont été identifiés comme pouvant augmenter le risque.)

"Il est vraiment important que les gens comprennent qu'il existe une génétique à la dépression", a déclaré Krystal. "Jusqu'à très récemment, seuls les facteurs psychologiques et environnementaux étaient pris en compte."

Notre connaissance de la génétique est cependant incomplète. Krystal a noté que des études sur des jumeaux suggèrent que la génétique pourrait expliquer 40 % du risque de dépression. Pourtant, les gènes actuellement identifiés ne semblent expliquer qu’environ 5 %.

De plus, le simple fait d’avoir les gènes de la dépression ne garantit pas nécessairement qu’une personne deviendra déprimée. Les gènes doivent également être activés d’une manière ou d’une autre, par des conditions internes ou externes.

"Il existe parfois une fausse distinction entre les facteurs environnementaux et les facteurs génétiques", a déclaré Srijan Sen, neuroscientifique à l'Université du Michigan. "Pour les caractères d'intérêt les plus courants, les facteurs génétiques et environnementaux jouent un rôle essentiel."

Le laboratoire de Sen étudie les bases génétiques de la dépression en cartographiant le génome des sujets et en observant attentivement comment les individus présentant des profils génétiques différents réagissent aux changements dans leur environnement. (Récemment, ils se sont penchés sur le stress provoqué par la pandémie de Covid-19.) Différentes variations génétiques peuvent affecter la réaction des individus à certains types de stress, tels que le manque de sommeil, la violence physique ou émotionnelle et le manque de contact social, en devenant déprimé.

Les influences environnementales comme le stress peuvent aussi parfois donner lieu à des changements " épigénétiques " dans un génome qui affectent l’expression ultérieure des gènes. Par exemple, le laboratoire de Sen étudie les changements épigénétiques dans les capuchons situés aux extrémités des chromosomes, appelés télomères, qui affectent la division cellulaire. D'autres laboratoires examinent les modifications des étiquettes chimiques appelées groupes de méthylation qui peuvent activer ou désactiver les gènes. Les changements épigénétiques peuvent parfois même se transmettre de génération en génération. "Les effets de l'environnement sont tout aussi biologiques que les effets des gènes", a déclaré Sen. " Seule la source est différente. "

Les études de ces gènes pourraient un jour aider à identifier la forme de traitement à laquelle un patient répondrait le mieux. Certains gènes peuvent prédisposer un individu à de meilleurs résultats avec une thérapie cognitivo-comportementale, tandis que d'autres patients pourraient mieux s'en sortir avec un ISRS ou de la kétamine thérapeutique. Cependant, il est beaucoup trop tôt pour dire quels gènes répondent à quel traitement, a déclaré Sen.

Un produit du câblage neuronal

Les différences dans les gènes d’une personne peuvent la prédisposer à la dépression ; il en va de même pour les différences dans le câblage neuronal et la structure de leur cerveau. De nombreuses études ont montré que les individus diffèrent dans la manière dont les neurones de leur cerveau s’interconnectent pour former des voies fonctionnelles, et que ces voies influencent la santé mentale.

Lors d'une récente conférence, une équipe dirigée par Jonathan Repple, chercheur en psychiatrie à l'Université Goethe de Francfort, en Allemagne, a décrit comment elle a scanné le cerveau de volontaires gravement déprimés et a découvert qu'ils différaient structurellement de ceux d'un groupe témoin non déprimé. Par exemple, les personnes souffrant de dépression présentaient moins de connexions au sein de la " substance blanche " des fibres nerveuses de leur cerveau. (Cependant, il n'y a pas de seuil de matière blanche pour une mauvaise santé mentale : Repple note que vous ne pouvez pas diagnostiquer la dépression en scannant le cerveau de quelqu'un.)

Après que le groupe déprimé ait subi six semaines de traitement, l'équipe de Repple a effectué une autre série d'échographies cérébrales. Cette fois, ils ont constaté que le niveau général de connectivité neuronale dans le cerveau des patients déprimés avait augmenté à mesure que leurs symptômes diminuaient. Pour obtenir cette augmentation, le type de traitement que les patients recevaient ne semblait pas avoir d'importance, du moment que leur humeur s'améliorait.

Une explication possible de ce changement est le phénomène de neuroplasticité. "La neuroplasticité signifie que le cerveau est réellement capable de créer de nouvelles connexions, de modifier son câblage", a déclaré Repple. Si la dépression survient lorsqu'un cerveau a trop peu d'interconnexions ou en perd certaines, alors exploiter les effets neuroplastiques pour augmenter l'interconnexion pourrait aider à améliorer l'humeur d'une personne.

Inflammation chronique

Repple prévient cependant qu'une autre explication des effets observés par son équipe est également possible : peut-être que les connexions cérébrales des patients déprimés ont été altérées par l'inflammation. L'inflammation chronique entrave la capacité du corps à guérir et, dans le tissu neuronal, elle peut progressivement dégrader les connexions synaptiques. On pense que la perte de ces connexions contribue aux troubles de l’humeur.

De bonnes preuves soutiennent cette théorie. Lorsque les psychiatres ont évalué des populations de patients souffrant de maladies inflammatoires chroniques comme le lupus et la polyarthrite rhumatoïde, ils ont constaté que " tous présentaient des taux de dépression supérieurs à la moyenne ", a déclaré Charles Nemeroff, neuropsychiatre à l'Université du Texas Austin. Bien sûr, savoir qu'ils souffrent d'une maladie dégénérative incurable peut contribuer aux sentiments de dépression du patient, mais les chercheurs soupçonnent que l'inflammation elle-même est également un facteur.

Des chercheurs médicaux ont découvert que provoquer une inflammation chez certains patients peut déclencher une dépression. L'interféron alpha, qui est parfois utilisé pour traiter l'hépatite C chronique et d'autres affections, provoque une réponse inflammatoire majeure dans tout le corps en inondant le système immunitaire de protéines appelées cytokines, des molécules qui facilitent les réactions allant d'un léger gonflement au choc septique. L’afflux soudain de cytokines inflammatoires entraîne une perte d’appétit, de la fatigue et un ralentissement de l’activité mentale et physique – autant de symptômes d’une dépression majeure. Les patients prenant de l’interféron déclarent souvent se sentir soudainement, parfois sévèrement, déprimés.

Si une inflammation chronique négligée est à l’origine de la dépression chez de nombreuses personnes, les chercheurs doivent encore déterminer la source de cette inflammation. Les maladies auto-immunes, les infections bactériennes, le stress élevé et certains virus, dont celui qui cause le Covid-19, peuvent tous induire des réponses inflammatoires persistantes. L’inflammation virale peut s’étendre directement aux tissus du cerveau. La mise au point d’un traitement anti-inflammatoire efficace contre la dépression peut dépendre de la connaissance de laquelle de ces causes est à l’œuvre.

On ne sait pas non plus si le simple traitement de l’inflammation pourrait suffire à soulager la dépression. Les cliniciens tentent encore de déterminer si la dépression provoque une inflammation ou si l’inflammation conduit à la dépression. "C'est une sorte de phénomène de poule et d'œuf", a déclaré Nemeroff.

La théorie du parapluie

De plus en plus, certains scientifiques s’efforcent de recadrer le terme " dépression " pour en faire un terme générique désignant un ensemble de pathologies connexes, tout comme les oncologues considèrent désormais le " cancer " comme faisant référence à une légion de tumeurs malignes distinctes mais similaires. Et tout comme chaque cancer doit être prévenu ou traité de manière adaptée à son origine, les traitements de la dépression peuvent devoir être adaptés à chaque individu. 

S’il existe différents types de dépression, ils peuvent présenter des symptômes similaires – comme la fatigue, l’apathie, les changements d’appétit, les pensées suicidaires et l’insomnie ou un sommeil excessif – mais ils peuvent résulter de mélanges complètement différents de facteurs environnementaux et biologiques. Les déséquilibres chimiques, les gènes, la structure cérébrale et l’inflammation pourraient tous jouer un rôle à des degrés divers. "Dans cinq ou dix ans, nous ne parlerons plus de la dépression comme d'un phénomène unitaire", a déclaré Sen.

Pour traiter efficacement la dépression, les chercheurs en médecine devront peut-être développer une compréhension nuancée de la manière dont elle peut survenir. Nemeroff s'attend à ce qu'un jour, la référence en matière de soins ne soit pas seulement un traitement, mais un ensemble d'outils de diagnostic capables de déterminer la meilleure approche thérapeutique pour la dépression d'un patient individuel, qu'il s'agisse d'une thérapie cognitivo-comportementale, de changements de style de vie, de neuromodulation, d'évitement. déclencheurs génétiques, thérapie par la parole, médicaments ou une combinaison de ceux-ci.

Cette prédiction pourrait frustrer certains médecins et développeurs de médicaments, car il est beaucoup plus facile de prescrire une solution universelle. Mais " apprécier la véritable complexité de la dépression nous amène sur un chemin qui, en fin de compte, aura le plus d’impact ", a déclaré Krystal. Dans le passé, dit-il, les psychiatres cliniciens étaient comme des explorateurs qui atterrissaient sur une petite île inconnue, installaient leur campement et s’installaient confortablement. "Et puis nous avons découvert qu'il y avait tout un continent énorme."



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Joanna Thompson, 26 janvier 2023

[ corps-esprit ] [ thérapie holistique idiosyncrasique ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel