Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.0408s

cicatrisation

Plus surprenant encore, parce qu'on nous avait appris que c'était impossible, les axones de la cellule ganglionnaire rétinienne ressuscitée se sont développés depuis l'arrière de l'œil jusqu'à un endroit proche du centre du cerveau appelé le chiasma optique. "Ce qui est étonnant, c'est que les axones régénérés puissent retrouver leur chemin par de longues et tortueuses voies jusqu'à leurs cibles dans le cerveau... c'est incroyable", dit Huberman.

Auteur: Rahul Jandial

Info: Neurofitness : The Real Science of Peak Performance from a College Dropout Turned Brain Surgeon. *prolongement du neurone qui conduit le signal électrique du corps cellulaire vers les zones synaptiques.

[ palingénésie ] [ renouvellement magique ]

 

Commentaires: 0

Ajouté à la BD par miguel

neurones

Au niveau de l’interconnexion synaptique, il existe un espace vide à travers lequel le signal électrique ne peut pas se propager. La transmission d’information se fait alors par l’intermédiaire de substances chimiques, les neuro-médiateurs. Quand un signal arrive au niveau de la synapse, il provoque la libération des neurotransmetteurs (médiateurs chimiques) dans la fente synaptique (ce processus est nommé exocytose). Ceux-ci vont se fixer sur des récepteurs de l’autre côté de l’espace intersynaptique. Quand suffisamment de molécules se sont fixées, un signal électrique est émis de l’autre côté et on a donc une transmission.

Auteur: Uzan Pierre

Info: Dans "Conscience et physique quantique", page 65

[ potentiel post-synaptique ] [ description ] [ dendrites ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

biologie

Nous ne sommes rien d'autre que le produit de milliards d'années de croisements et d'assemblages moléculaires pilotés par sélection naturelle ; ensemble d'autoroutes fluidiques, marées chimiques mélangées qui se meuvent en voies enchevêtrées parmi des milliards de cellules dansantes qui développent parallèlement des billions de conversations synaptiques au sein du titanesque tissu de circuits d'un nano-monde qui fait tourner ensemble des milliers d'algorithmes pas même rêvés par la science moderne. Et tous ces programmes neuronaux donnent naissance à nos prises de décisions, nos amours, désirs, craintes et aspirations. Un meilleur recul sur tout ceci pourrait se révéler expérience numineuse bien supérieure à que tout ce qui a été proposé par les textes sacrés.

Auteur: Eagleman David

Info: www.goodreads.com

[ émerveillement ] [ hyper-complexité ] [ mammifère ]

 

Commentaires: 0

Ajouté à la BD par miguel

immortalité

Téléchargement de la conscience dans la réalité virtuelle.

Si nous pouvions scanner la matière synaptique d’un cerveau humain et la simuler sur un ordinateur, il serait donc possible pour nous de migrer de notre enveloppe biologique vers un monde totalement digital […].

En s’assurant que nous ayons toujours des copies de remplacement, nous pourrions effectivement jouir d’une durée de vie illimitée. […]

[Qu’est-ce que le transhumanisme ?, Nick Bostrom] Etrange aspiration que de se vouloir à perpétuité l’esprit dans la machine, l’étincelle dans le circuit. Plus crédible que l’envol d’un pur esprit sans vecteur matériel, ce croupissement d’handicapé-moteur, verrouillé dans son réseau-prothèse, si vaste soit-il, ne peut séduire que par défaut. La désincarnation ou la mort. Des deux côtés, mystique et scientiste, même mépris du "corps-machine" et de la "dépouille de chair". Quoi ! … Pas la moindre coupe d’ambroisie ?... Pas le moindre aliment d’éternité ?...

L’autre vie des mythologies avait cette supériorité qu’on y restait soi-même à jamais pour jouir de toutes les joies d’une chair indestructible. Leurs dieux n’étaient jamais que des surhommes anthropomorphes, sur-naturels, et leur culte célébrait d’abord un surhumanisme. Notion inaccessible à des gens qui ne se conçoivent que comme l’activité électrique d’une grossière machine et ne visent qu’à transférer cette activité dans une merveilleuse circuiterie.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Aujourd'hui le nanomonde", pages 144-145

[ critique ] [ déshumanisation ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

individuation

Le cerveau du jeune enfant est capable de faire des statistiques pour acquérir des connaissances en un temps record. Ainsi, en fonction des événements qu’il rencontre, il émet des prédictions sur l’avenir. Son cerveau, en ayant été confronté à la même situation, la considère comme quelque chose de familier et susceptible de se produire à nouveau. Exemple : la scène se passe à la crèche. Paul s’est rendu compte qu’avant d’aller prendre son repas, il se lavait les mains. Il fait une hypothèse qu’il pense être la plus probable. Tous les jours il se lavera les mains avant le déjeuner. Si l’événement se reproduit bien, son hypothèse de départ est confirmée. Notre cerveau cherche des régularités dans l’environnement pour pouvoir anticiper les événements.

La surprise favorise la plasticité cérébrale
Mais si le programme de cet enfant change, surprise, il se retrouve alors face à une information nouvelle. Cela attire son attention. Son cerveau reçoit un signal d’erreur et il va immédiatement être extrêmement motivé pour trouver une solution. Les choses nouvelles favorisent les apprentissages. Et c’est pour cela qu’il est nécessaire que l’enfant teste, manipule, se trompe, comprenne, recommence. C’est ce qui lui permet de progresser. Les choses nouvelles lui procurent de l’excitation et activent des neurotransmetteurs qui lui donnent du plaisir. Vers l’âge de 4 ans, le cerveau commence à élaguer les réseaux de neurones qui ne lui sont pas utiles. Ce processus se nomme l’élagage synaptique. En d’autres termes, les neurones qui ne sont pas utilisés sont détruits. L’enfant perd des connexions pour ne garder que les plus importantes. Il garde ce qui va lui servir en fonction de ce qu’il a rencontré dans le quotidien. C’est bien pour cela qu’il n’y a pas deux cerveaux pareils : chaque expérience est individuelle.

Auteur: Internet

Info: sur https://lesprosdelapetiteenfance.fr/

[ imprégnation ] [ bambins ] [ nourrissons ] [ cognition ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuroscience

La potentialisation à long terme (PLT - ou LTP, Long-Term Potentiation) est un processus qui se produit dans le cerveau et qui est associé au renforcement des connexions entre les neurones, qui sont les cellules responsables de la transmission des informations dans le cerveau. La PLT est considérée comme l'un des mécanismes fondamentaux de l'apprentissage et de la formation de la mémoire. 

Elle se produit selon ce processus.

1 Les neurones du cerveau communiquent entre eux par l'intermédiaire de connexions spécialisées appelées synapses. Ces synapses sont constituées d'un neurone présynaptique (neurone émetteur) et d'un neurone postsynaptique (neurone récepteur).

2 Lorsque ces neurones s'activent ensemble de manière répétée et cohérente, ils déclenchent un processus de plasticité synaptique, en particulier le PLT. Cela se produit généralement lors d'une stimulation à haute fréquence du neurone présynaptique.

3 Au cours de la PLT, certains changements se produisent au niveau de la synapse. L'un des principaux changements est l'augmentation de la force de la connexion synaptique. Cela signifie que le neurone postsynaptique devient plus sensible aux signaux du neurone présynaptique.

4 On pense que l'augmentation de la force de la synapse est due à différents mécanismes, notamment une augmentation de la libération de neurotransmetteurs (messagers chimiques) par le neurone présynaptique et des changements dans la réactivité des récepteurs sur le neurone postsynaptique.

5 Ces changements entraînent une transmission plus efficace des signaux entre les neurones, ce qui facilite la communication entre eux. Cette communication améliorée entre les neurones serait à la base de l'apprentissage et de la formation de nouveaux souvenirs.

Il doit être noté que le processus de PLT est complexe et qu'il implique divers événements moléculaires et cellulaires qui contribuent au renforcement des connexions entre les neurones, crucial pour apprendre et se souvenir.

Auteur: chatGPT4

Info: 27 juin 2023

[ capture synaptique ] [ mémorisation ] [ apprentissage ]

 

Commentaires: 0

Ajouté à la BD par miguel

folie

La schizophrénie est une maladie psychiatrique qui touche environ 1% de la population mondiale et se manifeste généralement au début de l'âge adulte. Les symptômes les plus fréquents comprennent une altération des processus sensoriels et cognitifs et une altération profonde de la cognition sociale. L'équipe de Rebecca Piskorowski et Vivien Chevaleyre au laboratoire de Physiologie cérébrale, en collaboration avec un laboratoire américain, lève le voile sur un mécanisme impliqué dans ces altérations de mémoire sociale. Cette étude, publiée dans la revue Neuron, ouvre la voie à de nouvelles cibles thérapeutiques potentielles.
Bien que de nombreux progrès aient été réalisés concernant la compréhension des causes génétiques de la schizophrénie, les mécanismes cellulaires qui sous-tendent des symptômes spécifiques sont peu connus. La délétion génétique 22q11.2 (perte de matériel génétique sur le chromosome 22) est le facteur de risque le plus fort pour développer la schizophrénie. En utilisant un modèle de souris porteuse d'une délétion génétique similaire obtenu par le laboratoire de Joseph Gogos à Columbia University (USA), l'équipe "Plasticité Synaptique et Réseaux Neuronaux" de Rebecca Piskorowski et Vivien Chevaleyre au laboratoire de Physiologie cérébrale, a étudié une petite région de l'hippocampe, qui est une structure importante pour la formation de mémoires et dont l'activité est affectée au cours de la schizophrénie.
Les résultats révèlent des altérations spécifiques de la région CA2 de l'hippocampe, qui a été longtemps ignorée mais qui émerge comme importante pour la formation de mémoires sociales au travers d'études récentes. En particulier, des changements ont été observés dans la balance entre l'excitation et l'inhibition ainsi que des altérations des propriétés des neurones de CA2. Il en résulte une forte diminution de l'activité des neurones de cette région, ce qui sous-tend probablement le déficit de mémoire sociale aussi observé chez ces souris. De façon intéressante et en parallèle avec le développement des symptômes chez l'homme, ces changements ne sont pas observés sur de jeunes animaux mais apparaissent uniquement au début de l'âge adulte.
Cette étude représente une avancée significative concernant la compréhension des mécanismes cellulaires altérés au cours de la schizophrénie, mais aussi potentiellement au cours d'autres maladies psychiatriques dans lesquelles les interactions sociales sont également affectées. Les résultats révèlent un mécanisme potentiel pour le déficit de mémoire sociale et, étant données les caractéristiques de la région CA2, ils ouvrent la voie à des cibles thérapeutiques potentielles.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=14788. Schizophrénie: une nouvelle piste dans la compréhension des déficits de mémoire sociale

[ cerveau ] [ sciences ]

 

Commentaires: 0

neuroscience

On sait enfin pourquoi le cerveau consomme autant d'énergie

La faute a des petites pompes "cachées". 

Les scientifiques le savent: le cerveau humain est une véritable machine insatiable en énergie. Au total, il en engloutit jusqu'à 10 fois plus que le reste du corps. Et même lorsque nous nous reposons, 20% de notre consommation de carburant est directement utilisé pour son fonctionnement. Un phénomène inexpliqué sur lequel nombre de scientifiques se sont cassés les dents. Jusqu'à aujourd'hui.

Publiée dans la revue Science Advances, une nouvelle étude explique l'origine du processus. Un processus qui se déroule dans ce que l'on appelle les vésicules synaptiques.

Entre deux neurones se trouve une synapse, zone qui assure la transmission des informations entre ces deux cellules nerveuses. Quand un signal est envoyé d'un neurone à un autre, un groupe de vésicules aspire les neurotransmetteurs à l'intérieur du premier neurone, au bout de sa queue. Le message est ainsi bien enveloppé, comme une lettre prête à être postée.

L'information est ensuite amenée jusqu'au bord du neurone, où elles fusionne avec la membrane, avant de relâcher les neurotransmetteurs dans la fameuse synapse. Dans cette zone, les neurotransmetteurs finissent leur course en entrant en contact avec les récepteurs du deuxième neurone. Et hop! Le message est passé.

Facile direz-vous. Certes, mais tout ceci nécessite beaucoup d'énergie cérébrale, ont découvert les scientifiques. Et ce, que le cerveau soit pleinement actif ou non.

En effectuant plusieurs expériences sur les terminaisons nerveuses, les membres de l'étude ont observé le comportement de la synapse lorsqu'elle est active ou non. Résultat: même quand les terminaisons nerveuses ne sont pas stimulées, les vésicules synaptiques, elles, ont toujours besoin de carburant. La faute à une sorte de petite pompe "cachée" qui est notamment en charge de pousser les protons hors de la vésicule. Chargée de pousser les protons hors de la vésicule et d'aspirer ainsi les neurotransmetteurs elle ne semble jamais se reposer et a donc besoin d'un flux constant d'énergie. En fait, cette pompe "cachée" est responsable de la moitié de la consommation métabolique de la synapse au repos.

Selon les chercheurs, cela s'explique par le fait que cette pompe a tendance à avoir des fuites. Ainsi, les vésicules synaptiques déversent constamment des protons via leurs pompes, même si elles sont déjà pleines de neurotransmetteurs et si le neurone est inactif.

Étant donné le grand nombre de synapses dans le cerveau humain et la présence de centaines de vésicules synaptiques à chacune de ces terminaisons nerveuses, ce coût métabolique caché, qui consiste à conserver les synapses dans un état de "disponibilité", se fait au prix d'une importante dépense d'énergie présynaptique et de carburant, ce qui contribue probablement de manière significative aux exigences métaboliques du cerveau et à sa vulnérabilité métabolique", concluent les auteurs.

Des recherches supplémentaires sont nécessaires pour déterminer comment les différents types de neurones peuvent être affectés par des charges métaboliques aussi élevées, car ils ne réagissent pas tous de la même manière.

Certains neurones du cerveau, par exemple, peuvent être plus vulnérables à la perte d'énergie, et comprendre pourquoi pourrait nous permettre de préserver ces messagers, même lorsqu'ils sont privés d'oxygène ou de sucre.

"Ces résultats nous aident à mieux comprendre pourquoi le cerveau humain est si vulnérable à l'interruption ou à l'affaiblissement de son approvisionnement en carburant", explique le biochimiste Timothy Ryan, de la clinique Weill Cornell Medicine à New York.

"Si nous avions un moyen de diminuer en toute sécurité cette fuite d'énergie et donc de ralentir le métabolisme cérébral, cela pourrait avoir un impact clinique très important." 

Auteur: Internet

Info: Science Advances, 3 déc 2021

[ cervelle énergivore ]

 

Commentaires: 0

Ajouté à la BD par miguel

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel