Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 56
Temps de recherche: 0.0637s

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

aliénisme

La cause de la dépression n’est probablement pas celle que vous pensez

La dépression a souvent été imputée à de faibles niveaux de sérotonine dans le cerveau. Cette réponse est insuffisante, mais des alternatives apparaissent et modifient notre compréhension de la maladie.

Les gens pensent souvent savoir ce qui cause la dépression chronique. Des enquêtes indiquent que plus de 80 % de la population attribue la responsabilité à un " déséquilibre chimique " dans le cerveau. Cette idée est répandue dans la psychologie populaire et citée dans des documents de recherche et des manuels de médecine. L'écoute de Prozac, un livre qui décrit la valeur révolutionnaire du traitement de la dépression avec des médicaments visant à corriger ce déséquilibre, a passé des mois sur la liste des best-sellers du New York Times.

La substance chimique cérébrale déséquilibrée en question est la sérotonine, un neurotransmetteur important aux effets légendaires de " bien-être ". La sérotonine aide à réguler les systèmes cérébraux qui contrôlent tout, de la température corporelle au sommeil, en passant par la libido et la faim. Depuis des décennies, il est également présenté comme le produit pharmaceutique le plus efficace dans la lutte contre la dépression. Les médicaments largement prescrits comme le Prozac (fluoxétine) sont conçus pour traiter la dépression chronique en augmentant les niveaux de sérotonine.

Pourtant, les causes de la dépression vont bien au-delà de la carence en sérotonine. Les études cliniques ont conclu à plusieurs reprises que le rôle de la sérotonine dans la dépression avait été surestimé. En effet, l’ensemble de la théorie du déséquilibre chimique pourrait être erroné, malgré le soulagement que le Prozac semble apporter à de nombreux patients.

Une revue de la littérature parue dans Molecular Psychiatry en juillet a sonné le glas le plus récent et peut-être le plus fort de l’hypothèse de la sérotonine, du moins dans sa forme la plus simple. Une équipe internationale de scientifiques dirigée par Joanna Moncrieff de l'University College London a examiné 361 articles dans six domaines de recherche et en a soigneusement évalué 17. Ils n’ont trouvé aucune preuve convaincante que des niveaux plus faibles de sérotonine provoquaient ou étaient même associés à la dépression. Les personnes souffrant de dépression ne semblaient pas avoir une activité sérotoninergique inférieure à celle des personnes non atteintes. Les expériences dans lesquelles les chercheurs abaissaient artificiellement les niveaux de sérotonine des volontaires n’entraînaient pas systématiquement une dépression. Les études génétiques semblaient également exclure tout lien entre les gènes affectant les niveaux de sérotonine et la dépression, même lorsque les chercheurs essayaient de considérer le stress comme un cofacteur possible.

" Si vous pensez toujours qu'il s'agissait simplement d'un déséquilibre chimique de la sérotonine, alors oui, c'est assez accablant", a déclaré Taylor Braund , neuroscientifique clinicien et chercheur postdoctoral au Black Dog Institute en Australie, qui n'a pas participé à l'étude. nouvelle étude. (" Le chien noir " était le terme utilisé par Winston Churchill pour désigner ses propres humeurs sombres, que certains historiens pensent être une dépression.)

La prise de conscience que les déficits de sérotonine en eux-mêmes ne provoquent probablement pas la dépression a amené les scientifiques à se demander ce qui pouvait en être la cause. Les faits suggèrent qu’il n’y a peut-être pas de réponse simple. En fait, cela amène les chercheurs en neuropsychiatrie à repenser ce que pourrait être la dépression.

Traiter la mauvaise maladie

L’intérêt porté à la sérotonine dans la dépression a commencé avec un médicament contre la tuberculose. Dans les années 1950, les médecins ont commencé à prescrire de l’iproniazide, un composé développé pour cibler la bactérie Mycobacterium tuberculosis vivant dans les poumons. Le médicament n’était pas particulièrement efficace pour traiter les infections tuberculeuses, mais il a béni certains patients avec un effet secondaire inattendu et agréable. "Leur fonction pulmonaire et tout le reste ne s'améliorait pas beaucoup, mais leur humeur avait tendance à s'améliorer", a déclaré Gerard Sanacora, psychiatre clinicien et directeur du programme de recherche sur la dépression à l'Université de Yale.

(Photo : Pour évaluer les preuves selon lesquelles les déséquilibres en sérotonine provoquent la dépression, la chercheuse en psychiatrie Joanna Moncrieff de l'University College London a organisé une récapitulation qui a examiné des centaines d'articles dans six domaines de recherche.) 

Perplexes face à ce résultat, les chercheurs ont commencé à étudier le fonctionnement de l'iproniazide et des médicaments apparentés dans le cerveau des rats et des lapins. Ils ont découvert que les médicaments empêchaient le corps des animaux d'absorber des composés appelés amines, parmi lesquels se trouve la sérotonine, un produit chimique qui transmet les messages entre les cellules nerveuses du cerveau.

Plusieurs psychologues éminents, parmi lesquels les regrettés cliniciens Alec Coppen et Joseph Schildkraut, se sont emparés de l'idée que la dépression pourrait être causée par un déficit chronique de sérotonine dans le cerveau. L’hypothèse de la dépression liée à la sérotonine a ensuite inspiré des décennies de développement de médicaments et de recherche neuroscientifique. À la fin des années 1980, cela a conduit à l’introduction de médicaments inhibiteurs sélectifs du recaptage de la sérotonine (ISRS), comme le Prozac. (Ces médicaments augmentent les niveaux d'activité de la sérotonine en ralentissant l'absorption du neurotransmetteur par les neurones.)  Aujourd'hui, l'hypothèse de la sérotonine reste l'explication la plus souvent donnée aux patients souffrant de dépression lorsqu'on leur prescrit des ISRS.

Mais des doutes sur le modèle sérotoninergique circulaient au milieu des années 1990. Certains chercheurs ont remarqué que les ISRS ne répondaient souvent pas aux attentes et n’amélioraient pas de manière significative les performances de médicaments plus anciens comme le lithium. " Les études ne concordaient pas vraiment ", a déclaré Moncrieff.

Au début des années 2000, peu d’experts pensaient que la dépression était causée uniquement par un manque de sérotonine, mais personne n’a jamais tenté une évaluation complète de ces preuves. Cela a finalement incité Moncrieff à organiser une telle étude, " afin que nous puissions avoir une idée si cette théorie était étayée ou non ", a-t-elle déclaré.

Elle et ses collègues ont découvert que ce n’était pas le cas, mais l’hypothèse de la sérotonine a toujours des adeptes. En octobre dernier – quelques mois seulement après la parution de leur étude – un article publié en ligne dans Biological Psychiatry prétendait offrir une validation concrète de la théorie de la sérotonine. D'autres chercheurs restent cependant sceptiques, car l'étude n'a porté que sur 17 volontaires. Moncrieff a rejeté les résultats comme étant statistiquement insignifiants.

Un déséquilibre chimique différent

Bien que les niveaux de sérotonine ne semblent pas être le principal facteur de dépression, les ISRS montrent une légère amélioration par rapport aux placebos dans les essais cliniques. Mais le mécanisme à l’origine de cette amélioration reste insaisissable. "Ce n'est pas parce que l'aspirine soulage les maux de tête que les déficits en aspirine dans le corps provoquent des maux de tête", a déclaré John Krystal , neuropharmacologue et directeur du département de psychiatrie de l'Université de Yale. " Comprendre pleinement comment les ISRS produisent des changements cliniques est encore un travail en cours. "

Les spéculations sur la source de ce bénéfice ont donné naissance à des théories alternatives sur les origines de la dépression.

Malgré le terme " sélectif " dans leur nom, certains ISRS modifient les concentrations relatives de produits chimiques autres que la sérotonine. Certains psychiatres cliniciens pensent que l’un des autres composés pourrait être la véritable force induisant ou soulageant la dépression. Par exemple, les ISRS augmentent les niveaux circulants de tryptophane, un acide aminé, un précurseur de la sérotonine qui aide à réguler les cycles de sommeil. Au cours des 15 dernières années, ce produit chimique est devenu un candidat sérieux pour prévenir la dépression. "Les études sur la déplétion en tryptophane fournissent des preuves assez solides", a déclaré Michael Browning , psychiatre clinicien à l'Université d'Oxford.

Un certain nombre d' études sur l'épuisement du tryptophane ont révélé qu'environ les deux tiers des personnes récemment remises d'un épisode dépressif rechuteront lorsqu'elles suivront un régime artificiellement pauvre en tryptophane. Les personnes ayant des antécédents familiaux de dépression semblent également vulnérables à une carence en tryptophane. Et le tryptophane a pour effet secondaire d’augmenter les niveaux de sérotonine dans le cerveau.

Des preuves récentes suggèrent également que le tryptophane et la sérotonine pourraient contribuer à la régulation des bactéries et autres microbes se développant dans l’intestin, et que les signaux chimiques émis par ce microbiote pourraient affecter l’humeur. Bien que les mécanismes exacts liant le cerveau et l’intestin soient encore mal compris, ce lien semble influencer le développement du cerveau. Cependant, comme la plupart des études sur la déplétion en tryptophane ont jusqu’à présent été limitées, la question est loin d’être réglée.

D'autres neurotransmetteurs comme le glutamate, qui joue un rôle essentiel dans la formation de la mémoire, et le GABA, qui empêche les cellules de s'envoyer des messages, pourraient également être impliqués dans la dépression, selon Browning. Il est possible que les ISRS agissent en modifiant les quantités de ces composés dans le cerveau.

Moncrieff considère la recherche d'autres déséquilibres chimiques à l'origine de la dépression comme une tentative de changement de marque plutôt que comme une véritable nouvelle ligne de recherche. " Je dirais qu’ils souscrivent toujours à quelque chose comme l’hypothèse de la sérotonine ", a-t-elle déclaré – l’idée selon laquelle les antidépresseurs agissent en inversant certaines anomalies chimiques dans le cerveau. Elle pense plutôt que la sérotonine a des effets si répandus dans le cerveau que nous pourrions avoir du mal à dissocier son effet antidépresseur direct des autres changements dans nos émotions ou sensations qui remplacent temporairement les sentiments d’anxiété et de désespoir.

Réponses génétiques

Toutes les théories sur la dépression ne reposent pas sur des déficits en neurotransmetteurs. Certains recherchent des coupables au niveau génétique.

Lorsque la première ébauche de séquence à peu près complète du génome humain a été annoncée en 2003, elle a été largement saluée comme le fondement d’une nouvelle ère en médecine. Au cours des deux décennies qui ont suivi, les chercheurs ont identifié des gènes à l’origine d’un large éventail de troubles, dont environ 200 gènes associés à un risque de dépression. (Plusieurs centaines de gènes supplémentaires ont été identifiés comme pouvant augmenter le risque.)

"Il est vraiment important que les gens comprennent qu'il existe une génétique à la dépression", a déclaré Krystal. "Jusqu'à très récemment, seuls les facteurs psychologiques et environnementaux étaient pris en compte."

Notre connaissance de la génétique est cependant incomplète. Krystal a noté que des études sur des jumeaux suggèrent que la génétique pourrait expliquer 40 % du risque de dépression. Pourtant, les gènes actuellement identifiés ne semblent expliquer qu’environ 5 %.

De plus, le simple fait d’avoir les gènes de la dépression ne garantit pas nécessairement qu’une personne deviendra déprimée. Les gènes doivent également être activés d’une manière ou d’une autre, par des conditions internes ou externes.

"Il existe parfois une fausse distinction entre les facteurs environnementaux et les facteurs génétiques", a déclaré Srijan Sen, neuroscientifique à l'Université du Michigan. "Pour les caractères d'intérêt les plus courants, les facteurs génétiques et environnementaux jouent un rôle essentiel."

Le laboratoire de Sen étudie les bases génétiques de la dépression en cartographiant le génome des sujets et en observant attentivement comment les individus présentant des profils génétiques différents réagissent aux changements dans leur environnement. (Récemment, ils se sont penchés sur le stress provoqué par la pandémie de Covid-19.) Différentes variations génétiques peuvent affecter la réaction des individus à certains types de stress, tels que le manque de sommeil, la violence physique ou émotionnelle et le manque de contact social, en devenant déprimé.

Les influences environnementales comme le stress peuvent aussi parfois donner lieu à des changements " épigénétiques " dans un génome qui affectent l’expression ultérieure des gènes. Par exemple, le laboratoire de Sen étudie les changements épigénétiques dans les capuchons situés aux extrémités des chromosomes, appelés télomères, qui affectent la division cellulaire. D'autres laboratoires examinent les modifications des étiquettes chimiques appelées groupes de méthylation qui peuvent activer ou désactiver les gènes. Les changements épigénétiques peuvent parfois même se transmettre de génération en génération. "Les effets de l'environnement sont tout aussi biologiques que les effets des gènes", a déclaré Sen. " Seule la source est différente. "

Les études de ces gènes pourraient un jour aider à identifier la forme de traitement à laquelle un patient répondrait le mieux. Certains gènes peuvent prédisposer un individu à de meilleurs résultats avec une thérapie cognitivo-comportementale, tandis que d'autres patients pourraient mieux s'en sortir avec un ISRS ou de la kétamine thérapeutique. Cependant, il est beaucoup trop tôt pour dire quels gènes répondent à quel traitement, a déclaré Sen.

Un produit du câblage neuronal

Les différences dans les gènes d’une personne peuvent la prédisposer à la dépression ; il en va de même pour les différences dans le câblage neuronal et la structure de leur cerveau. De nombreuses études ont montré que les individus diffèrent dans la manière dont les neurones de leur cerveau s’interconnectent pour former des voies fonctionnelles, et que ces voies influencent la santé mentale.

Lors d'une récente conférence, une équipe dirigée par Jonathan Repple, chercheur en psychiatrie à l'Université Goethe de Francfort, en Allemagne, a décrit comment elle a scanné le cerveau de volontaires gravement déprimés et a découvert qu'ils différaient structurellement de ceux d'un groupe témoin non déprimé. Par exemple, les personnes souffrant de dépression présentaient moins de connexions au sein de la " substance blanche " des fibres nerveuses de leur cerveau. (Cependant, il n'y a pas de seuil de matière blanche pour une mauvaise santé mentale : Repple note que vous ne pouvez pas diagnostiquer la dépression en scannant le cerveau de quelqu'un.)

Après que le groupe déprimé ait subi six semaines de traitement, l'équipe de Repple a effectué une autre série d'échographies cérébrales. Cette fois, ils ont constaté que le niveau général de connectivité neuronale dans le cerveau des patients déprimés avait augmenté à mesure que leurs symptômes diminuaient. Pour obtenir cette augmentation, le type de traitement que les patients recevaient ne semblait pas avoir d'importance, du moment que leur humeur s'améliorait.

Une explication possible de ce changement est le phénomène de neuroplasticité. "La neuroplasticité signifie que le cerveau est réellement capable de créer de nouvelles connexions, de modifier son câblage", a déclaré Repple. Si la dépression survient lorsqu'un cerveau a trop peu d'interconnexions ou en perd certaines, alors exploiter les effets neuroplastiques pour augmenter l'interconnexion pourrait aider à améliorer l'humeur d'une personne.

Inflammation chronique

Repple prévient cependant qu'une autre explication des effets observés par son équipe est également possible : peut-être que les connexions cérébrales des patients déprimés ont été altérées par l'inflammation. L'inflammation chronique entrave la capacité du corps à guérir et, dans le tissu neuronal, elle peut progressivement dégrader les connexions synaptiques. On pense que la perte de ces connexions contribue aux troubles de l’humeur.

De bonnes preuves soutiennent cette théorie. Lorsque les psychiatres ont évalué des populations de patients souffrant de maladies inflammatoires chroniques comme le lupus et la polyarthrite rhumatoïde, ils ont constaté que " tous présentaient des taux de dépression supérieurs à la moyenne ", a déclaré Charles Nemeroff, neuropsychiatre à l'Université du Texas Austin. Bien sûr, savoir qu'ils souffrent d'une maladie dégénérative incurable peut contribuer aux sentiments de dépression du patient, mais les chercheurs soupçonnent que l'inflammation elle-même est également un facteur.

Des chercheurs médicaux ont découvert que provoquer une inflammation chez certains patients peut déclencher une dépression. L'interféron alpha, qui est parfois utilisé pour traiter l'hépatite C chronique et d'autres affections, provoque une réponse inflammatoire majeure dans tout le corps en inondant le système immunitaire de protéines appelées cytokines, des molécules qui facilitent les réactions allant d'un léger gonflement au choc septique. L’afflux soudain de cytokines inflammatoires entraîne une perte d’appétit, de la fatigue et un ralentissement de l’activité mentale et physique – autant de symptômes d’une dépression majeure. Les patients prenant de l’interféron déclarent souvent se sentir soudainement, parfois sévèrement, déprimés.

Si une inflammation chronique négligée est à l’origine de la dépression chez de nombreuses personnes, les chercheurs doivent encore déterminer la source de cette inflammation. Les maladies auto-immunes, les infections bactériennes, le stress élevé et certains virus, dont celui qui cause le Covid-19, peuvent tous induire des réponses inflammatoires persistantes. L’inflammation virale peut s’étendre directement aux tissus du cerveau. La mise au point d’un traitement anti-inflammatoire efficace contre la dépression peut dépendre de la connaissance de laquelle de ces causes est à l’œuvre.

On ne sait pas non plus si le simple traitement de l’inflammation pourrait suffire à soulager la dépression. Les cliniciens tentent encore de déterminer si la dépression provoque une inflammation ou si l’inflammation conduit à la dépression. "C'est une sorte de phénomène de poule et d'œuf", a déclaré Nemeroff.

La théorie du parapluie

De plus en plus, certains scientifiques s’efforcent de recadrer le terme " dépression " pour en faire un terme générique désignant un ensemble de pathologies connexes, tout comme les oncologues considèrent désormais le " cancer " comme faisant référence à une légion de tumeurs malignes distinctes mais similaires. Et tout comme chaque cancer doit être prévenu ou traité de manière adaptée à son origine, les traitements de la dépression peuvent devoir être adaptés à chaque individu. 

S’il existe différents types de dépression, ils peuvent présenter des symptômes similaires – comme la fatigue, l’apathie, les changements d’appétit, les pensées suicidaires et l’insomnie ou un sommeil excessif – mais ils peuvent résulter de mélanges complètement différents de facteurs environnementaux et biologiques. Les déséquilibres chimiques, les gènes, la structure cérébrale et l’inflammation pourraient tous jouer un rôle à des degrés divers. "Dans cinq ou dix ans, nous ne parlerons plus de la dépression comme d'un phénomène unitaire", a déclaré Sen.

Pour traiter efficacement la dépression, les chercheurs en médecine devront peut-être développer une compréhension nuancée de la manière dont elle peut survenir. Nemeroff s'attend à ce qu'un jour, la référence en matière de soins ne soit pas seulement un traitement, mais un ensemble d'outils de diagnostic capables de déterminer la meilleure approche thérapeutique pour la dépression d'un patient individuel, qu'il s'agisse d'une thérapie cognitivo-comportementale, de changements de style de vie, de neuromodulation, d'évitement. déclencheurs génétiques, thérapie par la parole, médicaments ou une combinaison de ceux-ci.

Cette prédiction pourrait frustrer certains médecins et développeurs de médicaments, car il est beaucoup plus facile de prescrire une solution universelle. Mais " apprécier la véritable complexité de la dépression nous amène sur un chemin qui, en fin de compte, aura le plus d’impact ", a déclaré Krystal. Dans le passé, dit-il, les psychiatres cliniciens étaient comme des explorateurs qui atterrissaient sur une petite île inconnue, installaient leur campement et s’installaient confortablement. "Et puis nous avons découvert qu'il y avait tout un continent énorme."



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Joanna Thompson, 26 janvier 2023

[ corps-esprit ] [ thérapie holistique idiosyncrasique ]

 

Commentaires: 0

Ajouté à la BD par miguel

non-voyant

Le monde tel que l'imaginent ceux qui n'ont jamais vu. (II)

Imaginer les couleurs

L'épineuse question des couleurs offre un autre exemple du "fossé perceptif" qui sépare voyants et aveugles de naissance. Les voyants s'imaginent souvent qu'il leur suffit de fermer les yeux pour se représenter la perception d'un aveugle. En réalité, ce n'est pas parce que nous fermons les yeux que nos yeux cessent de voir : le noir qui nous apparaît n'est rien d'autre que la couleur de nos paupières closes. Il en va tout autrement pour la plupart des aveugles, et à plus forte raison pour les aveugles de naissance. Comme il leur serait difficile de nous expliquer leur perception du monde, tant elle relève pour eux de l'évidence, le mieux est encore de nous tourner vers quelqu'un qui a vu avant de ne plus voir et qui, de ce fait, dispose d'un point de comparaison.

Jean-Marc Meyrat, devenu aveugle à l'âge de 8 ans, raconte son passage du monde des voyants dans celui des aveugles en ces termes : "Cela s'est fait très progressivement. Ce glissement presque impalpable s'est matérialisé par le déplacement de ma chaise de plus en plus près de l'écran de la télévision. Vers la fin du processus, je suis entré dans une sorte de zone grise qui s'est peu à peu assombrie pour virer au noir avant de disparaître. Puis, plus rien. La persistance de la couleur noire, parfois entrecoupée d'éblouissements, peut durer plus ou moins longtemps. Ceci est d'autant plus vrai si la cécité est intervenue brutalement. Après, plus rien, je ne peux pas dire mieux : plus rien.

Voilà qui pose un sérieux problème à ceux que le noir fascine et que la notion de rien effraie.". C'est l'image traditionnelle de l'aveugle errant dans les ténèbres qui se trouve ici battue en brèche... Certains aveugles tardifs regrettent de n'avoir pas même la perception du noir : ainsi, l'écrivain Jorge Luis Borges, devenu aveugle au cours de sa vie, affirmait que le noir lui manquait surtout au moment d'aller se coucher, lui qui avait pris l'habitude de s'endormir dans l'obscurité la plus complète...

Qu'est-ce que c'est que de ne rien voir ? En réalité, il est aussi difficile pour un aveugle de naissance de se représenter les couleurs que pour un voyant d'imaginer une perception absolument dénuée de couleurs, où l'on ne trouve pas même de noir et blanc, ni aucune nuance intermédiaire : autant chercher à imaginer un désert sans sol ni ciel, ou ce fameux couteau dont parle Lichtenberg, dépourvu de lame et auquel manque le manche. "Les gens s'imaginent les choses par rapport à ce qu'ils connaissent, remarque Christine Cloux. Nous qui entendons, nous imaginons à tort que les sourds de naissance sont plongés dans le silence. Or, pour connaître le silence il faut connaître le bruit, ce qui est notre cas mais pas celui des sourds, qui ne connaissent pas plus le bruit que son absence. Ce qu'ils connaissent, c'est un monde privé de ces notions."

Ces considérations posent tout de même plusieurs problèmes logiques : comment un aveugle peut-il se représenter l'image spatiale d'un objet, en considérant qu'il n'a pas même deux couleurs différentes à sa disposition pour distinguer l'objet du fond ? Il suffirait pourtant de nous remémorer certaines images qui nous viennent en rêve, ou en pensée : par exemple, nous voyons l'image d'une femme, mais nous sommes bien incapables de dire quelle est la couleur ou la forme exacte de sa robe. L'image mentale du voyant a rarement la précision d'une image photographique... Ces couleurs flottantes, ces formes incertaines, peuvent sans doute nous donner un aperçu des images non visuelles de l'aveugle. Si les couleurs sont inaccessibles aux sens de l'aveugle, cela ne l'empêche pas de tenter de se les représenter.

"Ca n'empêche même pas d'avoir des préférences, fait remarquer Sophie Massieu. Je m'habille en fonction de ce que j'imagine de la couleur en question. Par exemple, je ne porte jamais de jaune. Allez savoir ce qu'il m'a fait ce pauvre jaune...". "Je me suis créée des représentations mentales des couleurs, exactement comme je me représente les idées ou les concepts qui ne se voient pas, comme un atome par exemple..." explique Christine Cloux.

Mais d'où viennent ces représentations mentales exactement ? Pour la plupart, des commentaires des voyants : "Un jour une copine est arrivée vers moi en s'écriant : "Ouah ! Du rouge ! Ca te va super bien !" D'autres ont confirmé et depuis ce moment-là j'achète plus souvent du rouge.", raconte Christine. Parfois, la couleur peut évoquer à l'aveugle de naissance un souvenir précis : Sophie Massieu associe le bleu Majorelle à un après-midi passé dans le jardin Majorelle à Marrakech. Certains aveugles associeront le noir à la tristesse s'ils ont porté du noir pendant un enterrement, le blanc à la gaieté, puisqu'ils savent que c'est la couleur dont se parent les mariées et les communiants... La couleur dépose son image dans la mémoire affective et non dans la mémoire sensorielle ; le mot s'imprègne de l'émotion, comme un buvard. "Cela rend la sensation plus épaisse." explique Sophie.

Dans ce domaine éminemment subjectif, les "glissements sensoriels" sont légion. Il arrive fréquemment que l'aveugle de naissance prête aux couleurs les propriétés tactiles des objets qui leur sont couramment associés : par exemple, si en se vautrant dans le gazon, l'aveugle en a apprécié la douceur et la mollesse, il attribuera désormais au vert ses propriétés ; de même, le rouge brûle puisque c'est le feu, le blanc est froid comme la neige... L'aveugle de naissance n'hésite jamais à puiser dans des termes empruntés aux autres sens pour décrire l'image qu'il se fait des couleurs. Christine Cloux vous dira que le blanc lui semble "très aérien, léger, comme de la glace, très pur, peut-être parfois trop", alors que le noir lui paraît au contraire "presque encombrant, étouffant".

A ce petit jeu, la langue est pour l'aveugle un vivier de métaphores et d'associations verbales précieuses : ne dit-on pas un éclat tapageur, une teinte agressive ou insolente, un rose fade ? Ecrivains et poètes ne parlent-ils pas de "l'épaisseur des ténèbres", de "ruissellements de lumières" ? La mémoire tactile de l'aveugle est alors à même de lui fournir des repères, aussi abstraits soient-ils. Quand elle lit ou entend les termes "une forêt obscure", Christine Cloux s'imagine "que la forêt est très dense, qu'il y fait frisquet, voire franchement froid parce que le soleil ne passe pas... "Le rayonnement de la chaleur donne une idée très nette à l'aveugle de ce que peut-être le rayonnement de la lumière (on parle d'ailleurs d'une lumière douce et pénétrante...).

Parfois, l'image que l'aveugle se fait d'une couleur se fonde simplement sur le mot qui la désigne. "Enfant, le jaune m'évoquait un clown en train de jouer de la trompette, parce que je trouvais le mot amusant et que je savais que c'est une couleur gaie, voire criarde, explique Christine Cloux. C'est jaune, yellow, gelb... ou même giallo. Ces sonorités participent à ma représentation de cette couleur.". Ce faisant, l'aveugle se comporte en quelque sorte en "cratylien"- du nom de Cratyle, cet interlocuteur de Socrate qui professait que la sonorité des mots pouvait nous renseigner sur la nature même de ce qu'ils désignent.

Un voyant, pourtant, sait bien qu'il est hasardeux de tenter d'établir un lien entre le nom d'une couleur et la couleur elle-même... Et cependant, n'agissons-nous pas de manière analogue quand nous imaginons une ville ou un pays où nous ne sommes jamais allés et dont nous ne savons rien, en nous fondant sur la sonorité de son nom ? Des noms tels que Constantinople, Byzance ou Marrakech ne charrient-ils pas déjà un flot d'images abstraites considérables rien que par leurs propriétés auditives, indépendamment même des images visuelles précises qu'on leur accole ? La plupart des aveugles de naissance n'hésitent pas à puiser dans les impressions auditives pour se représenter les couleurs : "Je me représente le spectre des diverses couleurs un peu comme l'échelle des sons - l'échelle des couleurs est simplement plus grande et plus complexe à se représenter." explique Christine Cloux.

La comparaison n'est pas insensée : couleurs et sons ont en commun de se définir par une certaine fréquence (hauteur pour le son, teinte pour la couleur), une certaine pureté (timbre pour le son, saturation pour la couleur), une certaine intensité (force pour le son, valeur ou luminosité pour la couleur)... Cela explique peut-être les fréquentes associations verbales entre l'ouïe et la vue dans le langage courant : ne parle-t-on pas d'un rouge criard, d'une gamme de couleur, du ton d'un tissu, d'une voix blanche ?

Pour Christine Cloux, si les couleurs émettaient du son, "le jaune, l'orange et le rouge nous casseraient les oreilles alors que le bleu par exemple ferait un bruit aussi soutenu mais moins fort, avec le vert." Cette croyance selon laquelle il pourrait exister une correspondance directe entre la sensation auditive et la sensation visuelle n'est pas propre aux aveugles, elle a longtemps hanté l'oeuvre des symbolistes et des romantiques, et des artistes en général : qu'on songe aux Synesthésies de Baudelaire ("les parfums, les couleurs et les sons se répondent" dans le poème Correspondances), à Rimbaud cherchant à assigner une couleur à chaque voyelle ("A noir, E blanc, I rouge"...), ou à cette très sérieuse table de concordance entre voyelles, couleurs et instruments que tenta d'établir René Ghil, un disciple de Mallarmé, ou encore au plasticien Nicolas Schöffer qui mit des sons en couleur... Bien qu'on sente ce qu'il entre de rêverie poétique dans cette croyance, on ne peut s'empêcher d'imaginer que, si les divers stimuli sensoriels n'étaient que les différents dialectes d'une même langue, toutes sortes de traductions deviendraient possibles...

Que vienne le temps du traducteur couleurs/sons qui permettrait de traduire un tableau de Van Gogh en symphonie ! Imaginer l'art La seule chose que les aveugles de naissance savent des peintres, c'est ce qu'on a bien voulu leur en dire - or le langage est évidemment inapte à rendre compte de ce qui fait la spécificité de cet art. Là encore, l'aveugle doit trouver des analogies où il peut : Christine Cloux imagine la peinture impressionniste en se fondant sur l'impressionnisme musical et littéral, la peinture cubiste en pensant au style de Gertrude Stein - elle imagine les personnages peints par Picasso comme "des corps dont on aurait" découpé" les diverses parties pour les reconstituer n'importe comment.", mais ajoute aussitôt "Je n'aime pas le désordre, ça ne me parle pas.". Quand on lui demande ce que lui évoque une oeuvre comme le Carré blanc sur fond blanc de Malevitch, il lui semble que "ce doit être beau, presque intangible et cependant... Comme une porte d'entrée." 

Natacha de Montmollin est plus sceptique : "Je ne vois pas l'intérêt.". La peinture l'indiffère - Escher est le seul dessinateur dont elle se soit forgée une image précise : "sa technique m'intrigue". Etrange, si l'on considère que les dessins d'Escher reposent la plupart du temps sur des illusions optiques, des perspectives truquées qui, par essence, ne peuvent tromper qu'un voyant... Quel rapport les aveugles de naissance entretiennent-ils avec un art comme la poésie ? Sophie Massieu avoue qu'elle n'y est pas très sensible. "Je ne sais pas si ça relève de mon caractère ou de ma cécité... Peut-être qu'il y a une part de l'image qui m'échappe... "Christine Cloux, pour sa part, ne considère pas que la cécité soit une entrave pour apprécier un poème : selon elle, les images poétiques font autant - si ce n'est davantage - appel à la mémoire affective qu'à la mémoire sensorielle. "Peut-être que parfois je perçois une métaphore un peu autrement que quelqu'un d'autre, mais c'est le cas pour chacun de nous, je pense. Nous comprenons les figures de styles avec notre monde de référence.". Le rapport à l'art de certains aveugles de naissance semble parfois tenir du besoin vital : "C'est une expérience très riche dont je ne saurais me passer, explique Christine Cloux. J'ai peut-être d'autant plus besoin de l'art que je n'ai pas les images "extérieures à moi"".

Si l'aveugle de naissance exige davantage de l'art que le commun des voyants, c'est peut-être parce qu'il attend de lui qu'il lui restitue les beautés de la nature dont la cécité l'a privé. Oscar Wilde, pour expliquer à quel point l'oeuvre d'un artiste pouvait déteindre sur notre vision du monde, disait que ce n'est pas l'art qui imite la nature mais la nature qui imite l'art. Cette phrase a une pertinence toute particulière dans le cas de l'aveugle de naissance, car tout ce qu'il lit à propos de la nature, dans les poèmes ou dans les romans, se mêle intimement dans son imaginaire à la représentation qu'il s'en fait dans la vie de tous les jours - et cette représentation a sans doute plus à voir avec une transfiguration artistique, infiniment subjective, qu'avec, par exemple, une reproduction photographique un peu floue... Imaginer la nature D'une façon générale, la nature - tout du moins sa face visible - constitue pour l'aveugle de naissance une source inépuisable de curiosités. Certains phénomènes auxquels les voyants sont accoutumés demeurent pour lui un mystère - notamment les plus insubstantiels, ceux qu'il ne peut connaître par le toucher. "Un gaz... on risque de ne pas le voir. En revanche on voit la vapeur, ce qui est un peu étrange puisque l'eau est transparente, et pourtant, vous la voyez tout de même... Je le comprends en théorie mais c'est quand même bizarre." avoue Christine Cloux.

La transparence fait partie des notions difficiles à concevoir quand on ignore ce qu'est l'opacité visuelle - en témoigne la fascination qu'exercent les poissons sur de ce jeune aveugle de naissance, interrogé par Sophie Calle (dans le catalogue de l'exposition M'as-tu vue) : "C'est leur évolution dans l'eau qui me plaît, l'idée qu'ils ne sont rattachés à rien. Des fois, je me prends à rester debout des minutes entières devant un aquarium, debout comme un imbécile.". Un autre (toujours cité par Sophie Calle) tente de se représenter les miroitements de la mer : "On m'a expliqué que c'est bleu, vert, que les reflets avec le soleil font mal aux yeux. Cela doit être douloureux à regarder." Certaines reproductions peuvent donner à l'aveugle de naissance une idée approximative de certains phénomènes insubstantiels. Une femme (interrogée par Jane Hervé) se souvient d'un bas-relief du Moyen-Âge : "Il représentait le feu, avec des flammes en pointe comme des épées. Des flammes en pierre. J'étais éblouie. Des stries dans tous les sens, des nervures sur un flanc de rocher. Je n'avais aucune idée de la façon dont on pouvait représenter une flamme. Je ne savais pas que l'on pouvait toucher du feu".

Les aveugles de naissance n'en demeurent pas moins les premiers à reconnaître l'insuffisance de ces palliatifs, qui les induisent parfois d'avantage en erreur qu'ils ne les renseignent vraiment. "Les étoiles, on en a tous dessiné, alors ça empiète sur l'imagination, remarque Christine Cloux. Sauf que les vraies étoiles doivent avoir bien d'autres formes encore..." La difficulté à se représenter un phénomène proprement visuel, quand elle n'arrête pas un aveugle, peut au contraire aiguillonner sa curiosité. Il semble en effet que, pour certains d'entre eux, comme d'ailleurs pour quantité de voyants, moins une chose leur est accessible et plus elle les fascine. Une notion comme l'horizon, par exemple, laisse Christine Cloux rêveuse : "L'horizon, c'est là où la vue ne peut pas aller plus loin. C'est le sens de l'expression "à perte de vue", littéralement. C'est une limite, poétique pour moi... Instinctivement cela m'évoque la mer, le soleil, les océans. L'espace, l'infini presque, la liberté, l'évasion.". Le spectacle des plaines s'étendant à perte de vue, des montagnes dont les sommets se perdent dans les nuages ou des vallées s'abîmant dans des gouffres vertigineux, demeure l'apanage de la vue, mais certaines impressions auditives peuvent en donner de puissants équivalents à l'aveugle. Face à la mer, le bruit de la vague qui vient de loin lui permet de composer, à partir d'images spatiales finies, "une vision indéfinie qui peut lui donner la sensation de l'infini" (Pierre Villey). "Sur un rivage, je me concentre sur le bruit des vagues à en avoir le vertige, et je me livre toute entière à l'instant présent."confie Sophie Massieu.

A la montagne, des bruits légers transportés à de grandes distances, dont l'écho se répercute pendant de longues secondes, élargissent "l'horizon" de l'aveugle dans toutes les directions à la fois. L'aveugle est en outre affranchi de certains aléas liés à l'altitude : "Je ne pense pas que je puisse avoir le vertige, dans la mesure où il me semble qu'il s'agit d'un phénomène en relation avec la vue. "explique Daniel Baud (66 ans, retraité). Christine Cloux assure même aimer "la sensation de vide au bord d'une falaise.". Certains aveuglent de naissance aiment particulièrement se confronter à l'immensité des grands espaces : "Les espaces infinis, je suis allée dans le désert juste pour me plonger dedans..." affirme Sophie Massieu. Sans vouloir généraliser outre mesure, il semble que l'infini soit, pour les aveugles de naissance, moins une source de crainte que de curiosité. Quand, après leur avoir lu la phrase de Pascal : "Le silence éternel des espaces infinis m'effraie.", je leur demande lequel de ces termes leur inspire la plus grande crainte, aucun ne mentionne l'infini.

Pour Sophie Massieu, c'est l'éternité : "Se dire que rien ne va changer pendant toute une vie, ça ne correspond pas du tout à mon caractère". Pour Daniel Baud, c'est le silence éternel - et pour cause, un silence absolu serait, pour l'aveugle, comme une obscurité totale pour un voyant. "Perdre tout point de repère - plus d'espace-temps, plus de son, plus d'espace... - effectivement c'est effrayant, admet Christine Cloux. Nous avons besoin d'un lieu où être ancrés, d'un point de référence pour pouvoir dire :"je suis ici, je suis vivant." Mais sa foi tempère ses craintes : "C'est effrayant pour nous maintenant, Mais lorsque nous serons éternels, nous n'aurons plus besoin de ces notions physiques."

a couleur du "jamais" 

Nous disions plus haut que l'aveugle de naissance ne pouvait pas regretter la vue puisqu'il s'agissait d'un état qu'il n'avait jamais connu... Mais ne leur arrivent-ils jamais de soupirer après ces merveilles de la nature dont ils entendent parler autour d'eux, en songeant à ces beautés qu'ils n'ont jamais vu et, pour la majorité d'entre eux, ne verront jamais ? Ces pensées ne colorent-elles pas ce "jamais" d'une pointe d'amertume ?

"Je regrette la vue comme on peut envier le don de la divination ou les ailes de l'aigle" affirme un aveugle de naissance cité par Pierre Villey. Quand Christine Cloux s'imagine voyante, elle reste songeuse : "Peut-être qu'au lieu d'écrire je ferais des aquarelles... et encore, je pense que non.". La vue semble n'inspirer aux aveugles de naissance que des songes vains ou des désirs abstraits - voire même, parfois, une certaine méfiance : "Tant de gens qui voient sont en fait malheureux, remarque Christine Cloux. Pour sûr, la vue n'apporte ni le bonheur ni rien. Ou peut-être qu'elle apporte trop et qu'on est envahis par tout ce qu'il faut regarder." A l'en croire, la cécité peut même parfois s'avérer un filtre bénéfique : "Je peux éviter de me représenter ce que je ne veux pas, comme nombre d'images que vous subissez aux informations : les catastrophes, les morts... Je les comprends, je les intègre, ça me touche, mais je ne les "vois" pas précisément dans ma tête. L'impact émotionnel est largement suffisant et je ne suis pas masochiste."

En définitive, le rapport que l'aveugle de naissance entretient avec la vue est sans doute semblable à celui que nous entretenons tous vis-à-vis de l'inconnu : un mélange de peur et de désir, d'attirance et de défiance, comme en atteste ce témoignage de Christine Cloux, à qui nous laisserons le mot de la fin : "Oui, il m'arrive de regretter de ne pas voir. Je ne verrai jamais le visage des gens que j'aime, les fleurs, les étoiles, la nature, les petits enfants, les gens qui me sourient, les couleurs, les planètes... Et si je pouvais voir, juste un jour, juste une heure, cela ferait tellement plaisir à ma famille ! Ce serait pour eux un vrai bonheur, je pense, nettement plus que pour moi, puisque que je suis heureuse de ma vie de toute manière. Mais comme je suis curieuse, je voudrais tout voir, quitte à ne rien comprendre : les nuages, les étoiles, les gens. Je voudrais voir les visages changer lorsqu'ils ressentent des émotions. Je voudrais regarder dans un miroir pour voir quel effet ça fait d'être "face à soi-même" littéralement. Mais si vraiment je pouvais, je crois bien que ça me donnerait le vertige. C'est parce que je sais que ça ne risque pas d'arriver que je me dis que ce serait peut-être bien. Mais voir tout le temps... pas sûr. Il faudrait apprendre à voir, puis à regarder, puis à gérer. Et qui saurait m'apprendre comment faire ?"

Auteur: Molard Arthur

Info: http://www.jeanmarcmeyrat.ch/blog/2011/05/12/le-monde-tel-que-limaginent-ceux-qui-nont-jamais-vu

[ réflexion ] [ vacuité ] [ onirisme ] [ mimétisme ] [ imagination ] [ synesthésie ] [ monde mental ]

 

Commentaires: 0