Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 562
Temps de recherche: 0.0524s

monde covidien

Paniques anticomplotistes

Si Hold-up n’avait pas existé, les anticomplotistes l’auraient inventé. C’est le produit parfait, le bloc de complotisme-étalon en platine iridié, déposé au Pavillon de Breteuil à Sèvres.(...)

Le torrent de commentaires qu’a immédiatement suscité la diffusion du documentaire est sans doute le premier signe qui trahit la fébrilité — du temps a passé depuis le mépris et les ricanements. Si encore il n’y avait que la quantité. Mais il faut voir la "qualité". C’est peut-être là le trait le plus caractéristique de l’épisode "Hold-up" que toutes les réactions médiatiques ou expertes suscitée par le documentaire ne font que reconduire les causes qui l’ont rendu possible. Les fortes analyses reprises à peu près partout ont d’abord fait assaut de savoirs professionnels par des professionnels : "la musique" — inquiétante (la musique complotiste est toujours inquiétante), le format "interviews d’experts sur fond sombre" (le complotisme est sombre), "le montage" (le montage… monte ?). C’est-à-dire, en fait, les ficelles ordinaires, et grossières, de tous les reportages de M6, TF1, LCI, BFM, France 2, etc. Et c’est bien parce que l’habitude de la bouillie de pensée a été installée de très longue date par ces formats médiatiques que les spectateurs de documentaires complotistes ne souffrent d’aucun dépaysement, se trouvent d’emblée en terrain formel connu, parfaitement réceptifs... et auront du mal à comprendre que ce qui est standard professionnel ici devienne honteuse manipulation là.

Complotistes ou décrypteurs ?

Mais les médias ont passé ce point d’inquiétude où l’on sent bien qu’on ne peut plus se contenter de la stigmatisation des cinglés. L’urgence maintenant c’est de comprendre — hélas en partant de si loin, et avec si peu de moyens. Alors la science médiatique-complotologique pioche pour refaire son retard, et tout y passe. Il y a d’abord, nous dit très sérieusement Nicolas Celnik dans Libération (lui aussi a compris qu’il ne fallait plus se moquer, alors il écrit une "Lettre à (son) ami complotiste"), que l’un des ressorts positifs des adeptes de complots vient de "l’impression d’avoir découvert ce qui devait rester caché". Mais Nicolas Celnik sait-il que le vocable princeps de l’idéologie journalistique est "décrypter", ce qui, si l’on suit bien l’étymologie, signifie, précisément, mettre à découvert ce qui était caché. Il n’est pas un organe de presse qui ne s’enorgueillisse de ses "décryptages". (...)

Le décryptage autorisé a toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente

Ici le parallélisme manifestement inaperçu entre les îlotes tentant de "découvrir ce qui devrait rester caché" et l’aristocratie des "décrypteurs" se complique de ce que le décryptage autorisé n’a jamais rien décrypté, qu’il a même toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente, en quoi consiste le catéchisme néolibéral. Il suffit d’écouter un "décrypteur" livrer aux masses abruties qu’il a la bonté d’éclairer le sens profond de la suppression de l’ISF, de la réduction de la dette publique ou du démantèlement du code du travail pour être au clair sur ce que "décrypter" signifie réellement — à savoir voiler dans les catégories de la pensée néolibérale. "Décrypter", c’est avoir admis que les gueux ne se contentent plus d’une simple injonction, et entreprendre de leur en donner les bonnes raisons. Par exemple : "il faut supprimer l’ISF sinon les cerveaux partiront" — là c’est décrypté ; "il faut réduire la fiscalité du capital pour financer nos entreprises" (tout est clair) ; "il faut fermer des lits pour que l’hôpital soit agile" (décryptage de qualité : qui voudrait d’un hôpital podagre ou arthritique ? on comprend) ; "il faut réduire les dépenses publiques pour ne pas laisser la dette à nos enfants" (clarté économique, clarté morale), etc.

C’est très exaltant pour un journaliste de décrypter, ça donne un grand sentiment d’utilité sociale, c’est comme une charité démocratique. Les gueux ne pouvaient pas apercevoir tout ça, ça leur restait donc crypté — du coup on le leur décrypte. Décrypter, c’est faire comprendre aux intéressés ce qu’on va leur faire, pourquoi c’est nécessaire, et pourquoi c’est bon pour eux. (...)

Les complotistes en tout cas ont parfaitement reçu le message du "décryptage", à ceci près qu’à force de s’entendre administrer par d’autres un sens inaperçu du monde qui les bousille en leur expliquant qu’il est le meilleur possible, ils ont entrepris de s’en chercher un autre par eux-mêmes. Ça ne donne sans doute pas des résultats bien fameux — mais à décrypteur, décrypteur et demi. C’est le "décryptage" lui-même qui, pour permettre aux journalistes de faire les entendus, a installé l’idée qu’il y avait quelque chose à aller chercher dessous. Les complotistes les prennent au mot, à ceci près que le quelque chose des décrypteurs étant toujours la même chose, eux se mettent en devoir d’aller chercher autre chose.

Cérébroscopie des complotistes

Alors on va chercher pourquoi l’autodécryptage des gueux décrypte de travers. Ici la science complotologique est à son meilleur. Comme les sciences les plus avancées, elle isole des "effets". Par exemple la physique connaît "l’effet Compton", "l’effet Doppler", "l’effet Einstein". La complotologie, pour sa part dispose de l’effet "millefeuille argumentatif". Impossible d’ouvrir un article sur Hold-up sans avoir à manger du millefeuille (argumentatif) — une feuille de vrai, une feuille de faux, une feuille de vrai... Un journaliste de Mediapart va plus loin et pose gravement la question : "pourquoi nos cerveaux sont-ils si perméables" (à l’aberration complotiste) ? "Nos" : pas de discrimination offensante. "Cerveaux" : parce que c’est là-dedans que ça se passe. La réception du complotisme, c’est une affaire "dans le cerveau". Un psychologue social, dont la psychologie sociale n’a plus rien de social (mais c’est la grande tendance de la psychologie sociale) saisit aussitôt la perche du "cerveau" : comme une invitation faite aux sciences cognitives et à leur panacée explicative : le biais. Pourquoi le "cerveau" (des complotistes) erre-t-il ? Parce qu’il est en proie à des biais (cognitifs) — marche aussi avec "pourquoi votre fille est muette" : elle est en proie à des biais (auditifs). Après le biais pâtissier (celui du millefeuille — particulièrement traître avec toute cette crème, on ne sait plus si on mange des feuilles vraies ou des feuilles fausses), le biais de confirmation, puis le biais d’intentionnalité (à qui profite le crime ?), etc. De ce qu’il y a des biais, il résulte que la pensée n’est pas droite. C’est scientifique, on a bien avancé.

(...)

Les paroles institutionnelles en ruines

Voilà donc où en est la "compréhension" du fait complotiste dans les médias assistés de leurs experts satellites. D’où naît irrésistiblement un désir de compréhension de cette "compréhension", ou plutôt de cette incompréhension, de cette compréhension tronquée sur l’essentiel. En réalité, que la formation des opinions reprenne toute liberté, pour le meilleur et pour le pire, quand l’autorité des paroles institutionnelles est à terre, ça n’a pas grand-chose de surprenant. Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre. On les comprend : l’examen de conscience promet d’être douloureux, autant s’en dispenser — et maintenir le problème bien circonscrit au cerveau des complotistes.

Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre

C’est que l’autorité des paroles institutionnelles n’a pas été effondrée du dehors par quelque choc exogène adverse : elle s’est auto-effondrée, sous le poids de tous ses manquements. À commencer par le mensonge des institutions de pouvoir. Les institutions de pouvoir mentent. Mediator : Servier ment. Dépakine : Sanofi ment. Bridgestone : Bridgetsone ment. 20 milliards de CICE pour créer un million d’emplois : le Medef ment. Mais aussi : Lubrizol, les pouvoirs publics mentent ; nucléaire, tout est sûr : les nucléocrates mentent. Loi de programmation de la recherche : Vidal ment (mais à un point extravagant). Violences policières, alors là, la fête : procureurs, préfecture, IGPN, ministres, président de la République, tout le monde ment, et avec une obscénité resplendissante qui ajoute beaucoup. Covid : hors-concours.

Le capitalisme néolibéral a déchaîné les intérêts les plus puissants, or là où les intérêts croissent, la vérité trépasse. C’est qu’il faut bien accommoder la contradiction entre des politiques publiques forcenées et l’effet qu’elles font aux gens. Or pour combler ce genre d’écart, quand on a décidé de ne pas toucher aux causes de l’écart, il n’y a que le secours des mots. Alors on arrose généreusement avec du discours. Au début on fait de la "pédagogie", on "décrypte". Et puis quand le décryptage ne marche plus, il ne reste plus qu’à mentir — à soutenir que ce qui est n’est pas ("la police républicaine ne se cagoule pas, elle agit à visage découvert"), ou que ce qui n’est pas est (on ferme des lits pour améliorer l’accueil des malades). Quand il n’est pas pure et simple répression, le néolibéralisme finissant n’est plus qu’une piscine de mensonge. Nous baignons là-dedans. C’est devenu une habitude, et en même temps on ne s’y habitue pas. Vient forcément le moment où l’autorité de la parole institutionnelle s’effondre parce que l’écart entre ce qu’elle dit et ce que les gens expérimentent n’est plus soutenable d’aucune manière.

Alors ça part en glissement de terrain, et tout s’en va avec, notamment les médias d’accompagnement, précisément parce qu’ils auront accompagné, trop accompagné, pendant trop longtemps. Ils auront tant répété, tant ratifié, se seront tant empressés. Les complotistes voient l’esprit critique de la presse se réarmer dans la journée même de la parution d’un documentaire. Mais, en matière d’esprit critique, ils se souviennent aussitôt des interviews de Léa Salamé, de Macron interrogé par TF1-France2-BFM, de la soupe servie à la louche argentée, de la parole gouvernementale outrageusement mensongère mais jamais reprise comme telle, ils se souviennent de deux mois d’occultation totale des violences policières contre les "gilets jaunes", ils se souviennent du journalisme de préfecture qui a si longtemps débité tels quels les communiqués de Beauvau, certifié l’envahissement de la Salpêtrière par des casseurs.(...) C’est long trente ans à ce régime, pendant que le chômage, la précarité, les inégalités, les suicides et les services publics explosent. Ça en fait du travail de sape dans les esprits.

En fait c’est très simple : pourquoi les paroles institutionnelles s’effondrent-elles ? Parce que, dans le temps même où elles présidaient au délabrement de la société, elles auront, chacune dans leur genre, ou trop menti, ou trop couvert, ou trop laissé passer, ou trop regardé ailleurs, ou trop léché, que ça s’est trop vu, et qu’à un moment, ça se paye. Le complotisme en roue libre, c’est le moment de l’addition. Il faut vraiment être journaliste, ou expert de Conspiracy Watch pour ne pas voir ça. Trente ans de ruine à petit feu de l’autorité institutionnelle, et puis un beau jour, l’immeuble entier qui s’effondre : le discrédit. Mais normalement on sait ça : le crédit détruit, ne se reconstruit pas rapidement. Maintenant, il y a les ruines, et il va falloir faire au milieu des gravats pour un moment. On comprend que la plupart des médias, qui comptent au nombre des gravats, ne se résolvent pas à regarder le tableau. C’est bien pourquoi il fallait faire aussitôt un hold-up sur Hold-up : pour en fixer la "compréhension", et qu’elle ne s’en aille surtout pas ailleurs.

Rééducation et bienveillance

En attendant, la soupe est renversée et on a les complotistes sur les bras. Comment faire ? On a compris que l’heure de les traiter de cinglés était passée et qu’il urge de trouver autre chose pour endiguer la marée. Mais quoi ? Dans l’immédiat, pas grand-chose hélas, en tout cas pas ça. Il va falloir se faire à l’idée que la ruine des constructions de longue période, comme le crédit fait à la parole institutionnelle, ne se répare que par des reconstructions de longue période (par exemple, la destruction présente de la chaîne éducation-recherche prendra des décennies à être surmontée). Tant que la phalange anticomplotiste continuera d’apparaître telle qu’elle est, c’est-à-dire soudée au bloc des pouvoirs, le crédit de l’ensemble restera à zéro. En réalité, tant que la masse "médias" ne se fragmentera pas, tant que ne s’en détachera pas une fraction significative, qui rompe avec la position globale de ratification de l’ordre néolibéral et de déférence à l’endroit de tous ses pouvoirs, les clients du complotisme continueront de n’y voir qu’un appareil homogène de propagande — et d’aller chercher "ailleurs". Les gens ne vont chercher un "ailleurs" au-dehors que lorsque le champ institutionnel a échoué à aménager un "ailleurs" au-dedans. Mais quel aggiornamento, quelles révisions déchirantes, cette rupture, maintenant, ne suppose-t-elle pas ?

Pour l’heure, incapable, la parole autorisée cherche fébrilement quelque autre ressource — mais forcément au voisinage de ses formes de pensée invétérées. Idée de génie et redéploiement pédagogique : on va aller leur parler. Mais gentiment cette fois. On va leur écrire des lettres, en leur disant qu’ils sont nos amis — c’est donc la version Libération. Il y a celle du Monde. Si l’ambiance générale n’était pas si flippante, ce serait à se rouler par terre de rire. Tout y est. On va chercher Valérie Igounet de Conspiracy Watch — on avait l’habitude jusqu’ici de Rudy Reichstadt mais lui est trop épais, c’était l’anticomplotisme première manière, maintenant on ne peut plus le sortir. Dans la saison 2, ça donne : "Il faut réfuter par des faits, décrypter, mais sans être dans l’accusation ou la moquerie". Voilà la solution : tout dans l’onctueux, l’humain et la bienveillance — on est excellemment partis. "On est sur un fil", ajoute quand même l’experte dans un souffle. Tu l’as dit Valérie.

Tristan Mendès-France, lui, explique à peu de choses près qu’on a le stock des zinzins sur les bras et qu’avec eux, c’est foutu, il faudra faire avec. Mais que tout notre effort doit aller à enrayer les nouveaux recrutements : "il faut viser les primo-arrivants, faire de la prévention". Valérie Igounet a déjà commencé : elle mène, nous explique Le Monde, "de nombreux ateliers avec l’Observatoire du complotisme auprès d’enfants" — il faut prendre les "primo-arrivants" de loin. Tout le problème de l’anticomplotisme, c’est qu’il peut prononcer l’âme claire une phrase pareille qui, normalement, devrait faire froid dans le dos. Qu’on n’aille pas croire à une embardée individuelle : c’est la ligne générale. Le nouvel expert gyroscopique — il tourne sur à peu près tous les médias, France Culture, Le Monde, Regards —, Thomas Huchon, pense également qu’il faut "faire de l’éducation aux médias (…) en gros de la prévention pour vacciner contre l’épidémie de “fake news”". On se croirait au point de presse de Jérôme Salomon, et ça n’est pas un hasard. Car c’est cela qu’on trouve dans une tête d’anticomplotiste : des images de bacilles, de prophylaxie et de cordon sanitaire. De politique ? Aucunement. Ça n’est pas une affaire de politique, ou de discours politique : c’est une affaire médicale.

On voit d’ici à quoi pourra ressembler "l’éducation", ou plutôt la rééducation, aux médias. L’essentiel est que l’analyse du complotisme soit ramenée à son cadre : d’un côté le pathologique, de l’autre le pédagogique. Et puis, dans le camp-école réaménagé, les éducateurs, nous est-il désormais garanti, seront pleins d’empathie et d’écoute : "la diffusion du complotisme, conclut l’article du Monde, pose un défi à une multitude d’acteurs qui doivent plus que jamais prendre le temps d’expliquer, de démontrer, sans ostraciser ni caricaturer". De ne rien comprendre à ce point, c’en est extravagant. Finalement, rien n’a bougé d’un iota, le complotisme a encore de beaux jours devant lui. On se croirait revenu dans Tintin au Congo, mais où on aurait rappelé les missionnaires pour leur faire faire une UV de psycho avant de les renvoyer sur le terrain : "Nous n’économiserons ni notre patience ni notre bonté pour vous faire apercevoir que les esprits de la forêt n’existent pas. Puisque ce qui existe, c’est Dieu". 

Auteur: Lordon Fredéric

Info: https://blog.mondediplo.net/paniques-anticomplotistes, 25 nov 2020

[ contre-mesures sémantiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

non-voyant

Le monde tel que l'imaginent ceux qui n'ont jamais vu. (I)
Depuis les opérations pratiquées par le chirurgien anglais Cheselden en 1728 sur des personnes atteintes de cataracte congénitale, redonner la vue aux aveugles ne tient plus du miracle biblique mais de la science - et les avancées extraordinaires que la médecine a effectuées dans ce domaine invitent à être optimistes pour l'avenir. Toutefois, la plupart des aveugles de naissance qui vivent aujourd'hui savent que ces progrès bénéficieront surtout aux générations futures et que, pour la majorité d'entre eux, ils quitteront ce monde sans en avoir rien vu. Pour autant, à en croire certains, il n'y a nullement là de quoi s'affliger :" Je ne regrette jamais de ne pas voir. Je vois autrement et puis je n'ai jamais vu avec les yeux, ça ne peut pas me manquer." affirme Sophie Massieu (36 ans, journaliste).
L'aveugle de naissance "ne sait pas ce qu'il perd", littéralement parlant, il n'a donc aucune raison de soupirer après un état qu'il n'a jamais connu. Ce n'est donc pas, dans son cas, sur le mode de la lamentation ou du regret lyrique qu'il faut entendre le mot "jamais", comme ce peut être le cas pour les aveugles tardifs qui restent longtemps hantés par leurs souvenirs de voyant... Non, pour l'aveugle-né, ce "jamais" fonctionne à la manière d'un levier, d'une faille où s'engouffre son imagination : à quoi peut ressembler ce monde visible dont tout le monde parle autour de lui ? Comment se représenter des notions proprement visuelles, telles que les couleurs, l'horizon, la perspective ? Toutes ces questions pourraient tenir en une seule : comment concevoir ce qu'est la vue sans voir ? Question qui a sa réciproque pour le voyant : comment se représenter ce que c'est que de ne pas voir pour quiconque a toujours vu ? Il y a là un défi lancé à l'imagination, défi d'autant plus difficile à relever que les repères auxquels chacun aura spontanément tendance à se référer seront tirés d'un univers perceptif radicalement différent de celui qu'on cherche à se représenter, et qu'ils risquent fort, par conséquent, de nous induire en erreur. Il n'est pas dit que ce fossé perceptif puisse être franchi par l'imagination - mais comme tout fossé, celui-ci appelle des passerelles : analogies puisées dans les autres sens ou dans le langage, efforts pour s'abstraire de ses automatismes de pensée - ce que Christine Cloux, aveugle de naissance, appelle une forme de "souplesse mentale"... L'enjeu, s'il est vital pour l'aveugle, peut sembler minime pour le voyant : que gagne-t-on à imaginer le monde avec un sens en moins ? On aurait tort de négliger l'intérêt d'une telle démarche intellectuelle, car s'interroger sur la perception du monde d'un aveugle de naissance, c'est remettre la nôtre en perspective, en appréhender le caractère relatif, mesurer à quel point nos représentations mentales dépendent de nos dispositions sensibles - enfin, c'est peut-être le moyen de prendre conscience des limites de notre point de vue et, le temps d'un effort d'imagination, de les dépasser...
Imaginer le monde quand on est enfant
Le jeune enfant voyant croit que les choses cessent d'exister dès lors qu'elles quittent son champ de vision : un moment très bref, dit-on, sépare le temps où il croit encore sa mère absente et celui où il la croit déjà morte. Qu'on s'imagine alors ce qu'il en est pour l'enfant aveugle de naissance... "J'avais peur de lancer un ballon, parce que je pensais qu'il allait disparaître. Mon monde s'arrêtait à un mètre, au-delà, pour moi, c'était le vide. "explique Natacha de Montmollin (38 ans, informaticienne de gestion). Comment être sûr que les objets continuent d'exister quand ils sont hors de portée, d'autant plus quand on ne les retrouve pas là où on les avait laissés ? Comment accorder sa confiance à monde aussi inconstant ? Un enfant aveugle de naissance aura nécessairement besoin de plus de temps qu'un enfant voyant pour trouver ses marques et pour comprendre le monde qui l'entoure.
Dans les premières années de sa vie, l'aveugle de naissance n'a pas conscience de son handicap... De fait, s'il ne vivait dans une société de voyants, il passerait toute sa vie sans se douter de l'existence du monde visible. Dans la nouvelle de H. G. Wells Le pays des aveugles, le héros, voyant débarqué dans une communauté d'aveugles qui vit repliée sur elle-même, découvre à ses dépens qu'on y traite ceux qui se prétendent doués de la vue non comme des dieux ou des rois, mais comme des fous, comme nous traitons ceux qui affirment voir des anges - pour le dire autrement : au royaume des aveugles de naissance, les borgnes seraient internés. C'est uniquement parce qu'il vit dans une société organisée par et pour des voyants que l'aveugle finit par contracter, avec le temps, le sentiment de sa différence. Cette découverte peut se faire de différentes manières : les parents peuvent, quand ils estiment leur enfant assez mûr, lui expliquer son infirmité ; l'enfant peut également la découvrir par lui-même, au contact des autres enfants. "On ne m'a jamais expliqué que j'étais aveugle, j'en ai pris conscience avec le temps, explique Sophie Massieu. Quand je jouais à cache-cache avec les autres enfants, je ne comprenais pas pourquoi j'étais toujours la première débusquée... Evidemment, j'étais toujours cachée sous une table, sans rien autour pour me protéger, je sautais un peu aux yeux..."
Le jeune aveugle de naissance finit donc par comprendre qu'il existe une facette de la réalité que les autres perçoivent mais qui lui demeure inaccessible. Dans un premier temps, cette "face du monde" doit lui paraître pour le moins abstraite et difficile à concevoir. Pour avoir un aperçu de l'effort d'imagination que cela exige, le voyant devrait tenter de se représenter une quatrième dimension de l'espace qui l'engloberait sans qu'il en ait conscience...
Il est inévitable que l'aveugle de naissance commence par se faire de certaines choses une représentation inexacte : ces "fourvoiements de l'imagination" constituent des étapes indispensables à l'élaboration de l'intelligence, qu'on soit aveugle ou non. En outre, ils peuvent avoir leur poésie. Un psychologue russe (cité par Pierre Villey dans son ouvrage Le monde des aveugles) mentionne l'exemple d'un jeune aveugle de naissance qui se représentait absolument tous les objets comme en mouvement, jusqu'aux plus immobiles : "pour lui les pierres sautent, les couleurs jouent et rient, les arbres se battent, gémissent, pleurent". Cette représentation peut prêter à sourire, mais après tout, la science et la philosophie ne nous ont-elles pas enseigné que l'immobilité du monde n'était qu'une illusion de la perception, découlant de l'incomplétude de notre point de vue ? A ce titre, l'imagination de ce garçon semblait lui avoir épargné certaines illusions dont l'humanité a eu tant de mal à se déprendre : par exemple, quoiqu'il ne sut rien du mouvement des corps célestes, on raconte que, lorsqu'on lui posa la question : "le soleil et la lune se meuvent-ils ?", il répondit par l'affirmative, sans aucune hésitation.
L'aveugle de naissance peut se représenter la plupart des objets en les palpant. Quand ceux-ci sont trop imposants, des maquettes ou des reproductions peuvent s'y substituer. "J'ai su comment était foutue la Tour Eiffel en ayant un porte-clefs entre les mains... " se souvient Sophie Massieu. Tant que l'objet demeure hors de sa portée, hors du champ de son expérience, il n'est pas rare que l'aveugle s'en fasse une image fantaisiste en se fondant sur la sonorité du mot ou par associations d'idées. Ce défaut n'est pas propre aux aveugles, et "chez chacun, l'imagination devance l'action des sens", pour reprendre l'expression de Pierre Villey. Mais ce défaut peut avoir des conséquences nettement plus fâcheuses chez l'aveugle de naissance, car s'il se contente de ces représentations inexactes et ne cherche pas à les corriger, il risque de méconnaître le monde qui l'entoure et de s'isoler dans un royaume fantasque construit selon les caprices de son imagination. L'aveugle-né n'a pas le choix : il doit s'efforcer de se représenter le monde le plus fidèlement possible, sous peine d'y vivre en étranger...
Imaginer les individus
Très tôt, l'aveugle va trouver des expédients pour se représenter le monde qui l'entoure, à commencer par les gens qu'il côtoie. Leur voix, pour commencer, constitue pour lui une mine d'informations précieuses : l'aveugle prête autant attention à ce que dit son interlocuteur qu'à la manière dont il le dit. La voix révèle un caractère, le ton une humeur, l'accent une origine... "On peut dire ce qu'on veut, mais notre voix parle de nous à notre insu." explique Christine Cloux (36 ans, informaticienne). Certains aveugles considèrent qu'il est beaucoup plus difficile de déguiser les expressions de sa voix que celles de son visage, et pour eux, c'est la voix qui est le miroir de l'âme : "Un monde d'aveugle aurait ses Lavater [auteur de"L'Art de connaître les hommes par la physionomie"]. Une phonognomie y tiendrait lieu de notre physiognomie." écrit Pierre Villey dans Le monde des aveugles. Mais à trop se fier au caractère révélateur d'une voix, l'aveugle s'expose parfois à de cruelles désillusions... Villey cite le cas d'une jeune aveugle qui s'était éprise d'une actrice pour le charme de sa voix : "Instruite des déportements peu recommandables de son idole elle s'écrie dans un naïf élan de désespoir : "Si une pareille voix est capable de mentir, à quoi pourrons-nous donc donner notre confiance ?".
De nombreux autres indices peuvent renseigner l'aveugle sur son interlocuteur : une poignée de main en dit long (Sophie Massieu affirme haïr "les poignées de main pas franches, mollasses...", qu'elle imagine comparables à un regard fuyant) ; le son des pas d'un individu peut renseigner sur sa corpulence et sa démarche ; les odeurs qu'il dégage peuvent donner de précieux renseignements sur son mode de vie - autant d'indices que le voyant néglige souvent, en se focalisant principalement sur les informations que lui fournit sa vue. Quant à l'apparence physique en elle-même, la perspicacité de l'aveugle atteint ici ses limites : "Il y a des choses qu'on sait par le toucher mais d'autres nous échappent : on a la forme du visage, mais on n'a pas la finesse des traits, explique Sophie Massieu. On peut toujours demander aux copines "tiens, il me plaît bien, à quoi il ressemble ?" Bon, il faut avoir des bonnes copines... " Certains aveugles de naissance sont susceptibles de se laisser influencer par les goûts de la majorité voyante : Jane Hervé mentionne la préférence d'une aveugle de naissance pour les blonds aux yeux bleus :"Je crois que les blonds sont beaux. Peut-être que c'est rare...". "D'une façon générale, je pense que la manière dont nous imaginons les choses que nous ne pouvons pas percevoir tient beaucoup à la manière dont on nous en parle, explique Sophie Massieu. Si la personne qui vous le décrit trouve ça beau, vous allez trouvez ça beau, si elle trouve ça moche, vous allez trouver ça moche...". De ce point de vue, l'aveugle dépend - littéralement - du regard des autres : "Mes amis et ma famille verbalisent beaucoup ce qu'ils voient, alors ils sont en quelque sorte mon miroir parlant..." confie Christine Cloux.
Imaginer l'espace
On a cru longtemps que l'étendue était une notion impossible à concevoir pour un aveugle. Platner, un médecin philosophe du siècle dernier, en était même arrivé à la conclusion que, pour l'aveugle-né, c'était le temps qui devait faire office d'espace : "Eloignement et proximité ne signifient pour lui que le temps plus ou moins long, le nombre plus ou moins grand d'intermédiaires dont il a besoin pour passer d'une sensation tactile à une autre.". Cette théorie est très poétique - on se prend à imaginer, dans un monde d'aveugles-nés, des cartes en relief où la place dévolue à chaque territoire ne serait pas proportionnelle à ses dimensions réelles mais à son accessibilité, au temps nécessaire pour le parcourir... Dans les faits, cependant, cette théorie nous en dit plus sur la manière dont les voyants imaginent le monde des aveugles que sur le contraire. Car s'il faut en croire les principaux intéressés, ils n'ont pas spécialement de difficulté à se figurer l'espace.
"Tout est en 3D dans ma tête, explique Christine Cloux. Si je suis chez moi, je sais exactement comment mon appartement est composé : je peux décrire l'étage inférieur sans y aller, comme si j'en avais une maquette. Vraiment une maquette, pas un dessin ou une photo. De même pour les endroits que je connais ou que j'explore : les gares, des quartiers en ville, etc. Plus je connais, plus c'est précis. Plus j'explore, plus j'agrandis mes maquettes et j'y ajoute des détails."La représentation de l'espace de l'aveugle de naissance se fait bien sous formes d'images spatiales, mais celles-ci n'en sont pas pour autant des images-vues : il faudrait plutôt parler d'images-formes, non visuelles, où l'aveugle projette à l'occasion des impressions tactiles. Pour décrire cette perception, Jane Hervé utilise une comparaison expressive :"les sensations successives et multiples constituent une toile impressionniste - tramée de mille touchers et sensations - suggérant la forme sentie, comme les taches d'or étincelant dans la mer composant l'Impression, soleil devant de Claude Monet."
A l'époque des Lumières, certains commentateurs, stupéfaits par les pouvoirs de déduction des aveugles, s'imaginaient que ceux-ci étaient capables de voir avec le bout de leurs doigts (ils étaient trompés, il faut dire, par certains aveugles qui prétendaient pouvoir reconnaître les couleurs d'un vêtement simplement en touchant son étoffe). Mais les aveugles de naissance eux-mêmes ne sont pas à l'abri de ce genre de méprises : Jane Hervé cite le cas d'une adolescente de 18 ans - tout à fait intelligente par ailleurs - qui pensait que le regard des voyants pouvait contourner les obstacles - exactement comme la main permet d'enserrer entièrement un petit objet pour en connaître la forme. Elle pensait également que les voyants pouvaient voir de face comme de dos, qu'ils étaient doués d'une vision panoramique : "Elle imaginait les voyants comme des Janus bifaces, maîtres du regard dans toutes les directions.". L'aveugle du Puiseaux dont parle Diderot dans sa Lettre sur les aveugles, ne sachant pas ce que voulait dire le mot miroir, imaginait une machine qui met l'homme en relief, hors de lui-même. Chacun imagine l'univers perceptif de l'autre à partir de son univers perceptif propre : le voyant croit que l'aveugle voit avec les doigts, l'aveugle que le voyant palpe avec les yeux. Comme dans la parabole hindoue où des individus plongés dans l'obscurité tentent de déduire la forme d'un éléphant en se fondant uniquement sur la partie du corps qu'ils ont touché (untel qui a touché la trompe prétend que l'éléphant a la forme d'un tuyau d'eau, tel autre qui a touché l'oreille lui prête la forme d'un éventail...) - semblablement les êtres humains imaginent un inconnu radical à partir de ce qu'ils connaissent, quand bien même ces repères se révèlent impropres à se le représenter.
Parmi les notions spatiales particulièrement difficiles à appréhender pour un aveugle, il y a la perspective - le fait que la taille apparente d'un objet diminue proportionnellement à son éloignement pour le sujet percevant. "En théorie je comprends ce qu'est la perspective, mais de là à parvenir à réaliser un dessin ou à en comprendre un, c'est autre chose - c'est d'ailleurs la seule mauvaise note que j'ai eu en géométrie, explique Christine Cloux. Par exemple, je comprends que deux rails au loin finissent par ne former qu'une ligne. Mais ce n'est qu'une illusion, car en réalité il y a toujours deux rails, et dans ma tête aussi. Deux rails, même très loin, restent deux rails, sans quoi le train va avoir des ennuis pour passer..." Noëlle Roy, conservatrice du musée Valentin Haüy, se souvient d'une aveugle âgée, qui, effleurant avec ses doigts une reproduction en bas-relief du tableau l'Angélus de Millet, s'était étonnée que les deux paysans au premier plan soient plus grands que le clocher dont la silhouette se découpe sur l'horizon. Quand on lui expliqua que c'était en vertu des lois de la perspective, les personnages se trouvant au premier plan et le clocher très loin dans la profondeur de champ, la dame s'étonna qu'on ne lui ait jamais expliqué cela... On peut se demander comment cette dame aurait réagi si, recouvrant l'usage de la vue suite à une opération chirurgicale, elle avait aperçu la minuscule silhouette d'un individu dans le lointain : aurait-elle pensé que c'était là sa taille réelle et que cet individu, s'approchant d'elle, n'en serait pas plus grand pour autant ? Jane Hervé cite le témoignage d'une aveugle de 62 ans qui a retrouvé la vue suite à une opération : "Tout était déformé, il n'y avait plus aucune ligne droite, tout était concave... Les murs m'emprisonnaient, les toitures des maisons paraissaient s'effondrer comme après un bombardement. Ce que je voyais ovale, je le sentais rond avec mes mains. Ce que je distinguais à distance, je le sentais sur moi. J'avais des vertiges permanents. "On peut s'imaginer le cauchemar que représente une perception du monde où la vision et la sensation tactile ne concordent pas, où les sens envoient au cerveau des signaux impossibles à concilier... D'autres aveugles de naissance, ayant recouvré l'usage de la vue suite à une opération, dirent avoir l'impression que les objets leur touchaient les yeux : ils eurent besoin de plusieurs jours pour saisir la distance et de plusieurs semaines pour apprendre à l'évaluer correctement. Cela nous rappelle que notre vision du monde en trois dimensions n'a rien d'innée, qu'elle résulte au contraire d'un apprentissage et qu'il y entre une part considérable de construction intellectuelle.

Auteur: Molard Arthur

Info: http://www.jeanmarcmeyrat.ch/blog/2011/05/12/le-monde-tel-que-limaginent-ceux-qui-nont-jamais-vu

[ réflexion ] [ vacuité ] [ onirisme ] [ mimétisme ] [ synesthésie ] [ imagination ]

 
Mis dans la chaine

Commentaires: 0

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Notre cerveau à l’heure des nouvelles lectures

Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement de l’enfant est venue évoquer "la modification de notre cerveau-lecteur au 21e siècle"

Comment lisons-nous ?

"Le cerveau humain n’était pas programmé pour être capable de lire. Il était fait pour sentir, parler, entendre, regarder… Mais nous n’étions pas programmés génétiquement pour apprendre à lire". Comme l’explique le neuroscientifique français Stanislas Dehaene (Wikipédia) dans son livre Les neurones de la lecture, nous avons utilisé notre cerveau pour identifier des modèles. C’est l’invention culturelle qui a transformé notre cerveau, qui a relié et connecté nos neurones entre eux, qui leur a appris à travailler en groupes de neurones spécialisés, notamment pour déchiffrer la reconnaissance de formes. La reconnaissance des formes et des modèles a permis la naissance des premiers symboles logographiques, permettant de symboliser ce qu’on voyait qui nous mènera des peintures rupestres aux premières tablettes sumériennes. Avec l’invention de l’alphabet, l’homme inventera le principe que chaque mot est un son et que chaque son peut-être signifié par un symbole. Le cerveau lecteur consiste donc à la fois à être capable de "voir", décoder des informations, des motifs et à les traiter pour pouvoir penser et avoir une réflexion.

Pour autant, le circuit de la lecture n’est pas homogène. Quand on observe à l’imagerie cérébrale un anglais qui lit de l’anglais, un chinois qui lit du chinois ou le Kanji, un Japonais qui lit le Kana japonais, on se rend compte que ces lectures activent des zones sensiblement différentes selon les formes d’écritures. Ce qui signifie qu’il y a plusieurs circuits de lecture dans notre cerveau. Le cerveau est plastique et il se réarrange de multiples façons pour lire, dépendant à la fois du système d’écriture et du médium utilisé. "Nous sommes ce que nous lisons et ce que nous lisons nous façonne" Ce qui explique aussi que chaque enfant qui apprend à lire doit développer son propre circuit de lecture.

Ce qui stimule le plus notre cerveau, selon l’imagerie médicale, c’est d’abord jouer une pièce au piano puis lire un poème très difficile, explique Maryanne Wolf. Car la lecture profonde nécessite une forme de concentration experte. Comme le souligne Proust dans Sur la lecture : "Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit."

La lenteur, la concentration et le processus cognitif encouragent le cerveau lecteur. La déduction, la pensée analogique, l’analyse critique, la délibération, la perspicacité, l’épiphanie (c’est-à-dire la compréhension soudaine de l’essence et de la signification de quelque chose) et la contemplation sont quelques-unes des merveilleuses conséquences de notre capacité à lire la pensée d’un autre.

Pourquoi la lecture numérique est-elle différente ?

Est-ce que ce que nous savons de notre cerveau lecteur éclaire ce que nous ne savons pas de la lecture à l’heure de la culture numérique ? Quelles sont les implications profondes sur la plasticité de nos circuits de lecture à mesure que nous utilisons des médiums dominés par le numérique ?

En 2008, dans une interview pour Wired, quelques mois avant d’écrire son célèbre article, "Est-ce que Google nous rend idiot ?", Nicholas Carr expliquait : "La chose la plus effrayante dans la vision de Stanley Kubrick n’était pas que les ordinateurs commencent à agir comme les gens, mais que les gens commencent à agir comme des ordinateurs. Nous commençons à traiter l’information comme si nous étions des noeuds, tout est question de vitesse de localisation et de lecture de données. Nous transférons notre intelligence dans la machine, et la machine transfère sa façon de penser en nous."

Les caractéristiques cognitives de la lecture en ligne ne sont pas les mêmes que celle de la lecture profonde, estime Maryanne Wolf. Avec le numérique, notre attention et notre concentration sont partielles, moins soutenues. Notre capacité de lecture se fixe sur l’immédiateté et la vitesse de traitement. Nous privilégions une forme de lecture qui nous permet de faire plusieurs tâches en même temps dans des larges ensembles d’information. Les supports numériques ont tendance à rendre notre lecture physique (tactile, interactions sensorielles…) tandis que le lire nous plonge plutôt dans un processus cognitif profond. Pour la spécialiste, il semble impossible de s’immerger dans l’hypertexte. Reprenant les propos de Carr, "l’écrémage est la nouvelle normalité", assène-t-elle. "Avec le numérique, on scanne, on navigue, on rebondit, on repère. Nous avons tendance à bouger, à cliquer et cela réduit notre attention profonde, notre capacité à avoir une lecture concentrée. Nous avons tendance à porter plus d’attention à l’image. Nous avons tendance à moins internaliser la connaissance et à plus dépendre de sources extérieures."

Les travaux d’imagerie cérébrale sur les effets cognitifs du multitâche montrent que même si on peut apprendre en étant distraits cela modifie notre façon d’apprendre rendant l’apprentissage moins efficace et utile estime le professeur de psychologie et neurobiologie Russ Poldrack. Les facteurs tactiles et matériels ont aussi une importance. On ne peut s’immerger dans l’hypertexte de la même façon qu’on pouvait se perdre dans un livre, estime la spécialiste de la lecture Anne Mangen du Centre sur la lecture de l’université de Stavanger. Plusieurs études ont montré que notre niveau de compréhension entre l’écran et l’imprimé se faisait toujours au détriment du numérique, rappelle Maryanne Wolf. Mais peut-être faudrait-il nuancer les propos de Maryanne Wolf et souligner, comme nous l’avions déjà rappelé lors de la publication de la charge de Nicholas Carr que les les protocoles d’expérimentation des neuroscientifiques défendent souvent des thèses. La science et l’imagerie médicale semblent convoquées pour apporter des preuves. Alors que les différences de protocoles entre une étude l’autre, la petitesse des populations étudiées, nécessiterait beaucoup de prudence dans les conclusions.

Reste que pour comprendre cette différence entre papier et électronique, estime Maryanne Wolf, il nous faut comprendre comment se forme notre capacité de lecture profonde. Est-ce que la lecture superficielle et notre attente continue d’informations externes seront les nouvelles menaces des lectures numériques ? Ces deux risques vont-ils court-circuiter notre "cerveau lecteur" ? Est-ce que la construction de l’imaginaire de l’enfance va être remplacée par celle, externe, que tous les nouveaux supports offrent ? …

"Nous ne reviendrons pas en arrière, nous ne reviendrons pas à un temps prénumérique", insiste Maryanne Wolf. "Ce n’est ni envisageable, ni enviable, ni faisable."

"Mais nous ne devrions pas accepter une embardée vers l’avant sans comprendre ce que le "répertoire cognitif" de notre espèce risque de perdre ou de gagner."
 "Ce serait une honte si la technologie la plus brillante que nous ayons développée devait finir par menacer le genre d’intelligence qui l’a produite", estime l’historien des technologies Edward Tenner. Et Maryanne Wolf de nous montrer trois enfants assis dans un canapé, avec chacun son ordinateur sur ses genoux. C’est l’image même qui inspire notre peur de demain. Celle-là même qu’évoquait l’anthropologue Stefana Broadbent à Lift 2012. Sauf que l’anthropologue, elle, nous montrait qu’on était là confronté là à une représentation sociale… une interrogation totalement absente du discours alarmiste de Maryanne Wolf, qui compare l’activité cognitive de cerveaux habitués à la lecture traditionnelle, avec celle de cerveaux qui découvrent les modalités du numérique.

Le numérique a bien un défaut majeur, celui d’introduire dans notre rapport culturel même des modalités de distraction infinies. Comme nous le confiait déjà Laurent Cohen en 2009, l’écran ou le papier ne changent rien à la capacité de lecture. Mais c’est le réseau qui pose problème et ce d’autant plus quand il apporte une distraction permanente, permettant toujours de faire autre chose que ce que l’on compte faire.

Si la lecture profonde peut se faire tout autant sur papier qu’à travers le réseau, le principal problème qu’induit le numérique, c’est la possibilité de distraction induite par l’outil lui-même, qui demande, pour y faire face, un contrôle de soi plus exigeant.

Notre avenir cognitif en sursis ?

Alors, comment résoudre ce paradoxe, se demande Maryanne Wolf. Comment pouvons-nous éviter de "court-circuiter" notre capacité à lire en profondeur, tout en acquérant les nouvelles compétences nécessaires pour le 21e siècle ?

Un premier pas peut-être fait en ayant conscience de nos limites, estime Maryanne Wolf. Rappelons-nous que notre cerveau n’a jamais été programmé génétiquement pour lire. Que chaque lecteur doit construire ses propres circuits de lecture. Que nos circuits de lecture sont plastiques et influencés par les médiums et les systèmes d’écriture que nous utilisons. Notre cerveau-lecteur est capable à la fois des plus superficielles et des plus profondes formes de lecture, de ressenti et de pensées.

Nous pouvons deviner que l’accès à l’information ne va cesser d’augmenter. Mais nous ne savons pas si l’accès immédiat à de vastes quantités d’informations va transformer la nature du processus de lecture interne, à savoir la compréhension profonde et l’internalisation de la connaissance.

Pour le dire autrement, notre cerveau est d’une plasticité totale, mais cela ne veut pas dire que nous allons perdre telle ou telle capacité d’attention, alors que celles-ci ont plus que jamais une importance sociale. Pour l’instant, pourrions-nous répondre à Maryanne Wolf, ce que le cerveau lecteur nous a le plus fait perdre, c’est certainement notre capacité à lire les détails du monde naturel que comprenait le chasseur-cueilleur.

Nous ne savons pas si l’accès immédiat à cette quantité croissante d’information externe va nous éloigner du processus de lecture profonde ou au contraire va nous inciter à explorer la signification des choses plus en profondeur, estime Wolf en reconnaissant tout de même, après bien des alertes, l’ignorance des neuroscientifiques en la matière. Bref, nous ne savons pas si les changements qui s’annoncent dans l’intériorisation des connaissances vont se traduire par une altération de nos capacités cognitives, ni dans quel sens ira cette altération.

Si nous ne savons pas tout de notre avenir cognitif, estime Wolf, peut-être pouvons-nous conserver certains objectifs en vue. Que pouvons-nous espérer ? La technologie va bouleverser l’apprentissage, estime Maryanne Wolf en évoquant l’expérimentation qu’elle mène avec le MIT sur le prêt de tablettes auprès d’enfants éthiopiens qui n’ont jamais été alphabétisés et qui montre des jeunes filles capables de retenir l’alphabet qu’elles n’avaient jamais appris. Comment peut-on créer les conditions pour que les nouveaux lecteurs développent une double capacité… savoir à la fois quand il leur faut écrémer l’information et quand il leur faut se concentrer profondément ?

En semblant à la fois croire dans l’apprentissage par les robots, comme le montre l’expérience OLPC en Ethiopie de laquelle elle participe visiblement avec un certain enthousiasme (alors que certains spécialistes de l’éducation ont montré que l’essentielle des applications d’apprentissage de la lecture ne permettaient pas de dépasser le niveau de l’apprentissage de l’alphabet, en tout cas n’étaient pas suffisantes pour apprendre à lire seul) et en n’ayant de cesse de nous mettre en garde sur les risques que le numérique fait porter à la lecture profonde, Maryanne Wolf semble avoir fait un grand écart qui ne nous a pas aidés à y voir plus clair.

Après la langue et le langage : la cognition

Pour l’ingénieur et philosophe Christian Fauré, membre de l’association Ars Industrialis. "l’organologie générale" telle que définit par Ars Industrialis et le philosophe Bernard Stiegler, organisateur de ces rencontres, vise à décrire et analyser une relation entre 3 types d' "organes" qui nous définissent en tant qu’humain : les organes physiologiques (et psychologiques), les organes techniques et les organes sociaux.

"Nos organes physiologiques n’évoluent pas indépendamment de nos organes techniques et sociaux", rappelle Christian Fauré. Dans cette configuration entre 3 organes qui se surdéterminent les uns les autres, le processus d’hominisation semble de plus en plus porté, "transporté" par l’organe technique. Car dans un contexte d’innovation permanente, le processus d’hominisation, ce qui nous transforme en hommes, est de plus en plus indexé par l’évolution de nos organes techniques. La question est de savoir comment nos organes sociaux, psychologiques et physiologiques vont suivre le rythme de cette évolution. A l’époque de l’invention des premiers trains, les gens avaient peur d’y grimper, rappelle le philosophe. On pensait que le corps humain n’était pas fait pour aller à plus de 30 km à l’heure.

L’évolution que nous connaissons se produit via des interfaces entre les différents organes et c’est celles-ci que nous devons comprendre, estime Christian Fauré. Quel est le rôle des organes techniques et quels sont leurs effets sur nos organes sociaux et physiologiques ?L’écriture a longtemps été notre principal organe technique. Parce qu’elle est mnémotechnique, elle garde et conserve la mémoire. Par son statut, par les interfaces de publication, elle rend public pour nous-mêmes et les autres et distingue le domaine privé et le domaine public. Or l’évolution actuelle des interfaces d’écriture réagence sans arrêt la frontière entre le privé et le public. Avec le numérique, les interfaces de lecture et d’écriture ne cessent de générer de la confusion entre destinataire et destinateur, entre ce qui est privé et ce qui est public, une distinction qui est pourtant le fondement même de la démocratie, via l’écriture publique de la loi. Avec le numérique, on ne sait plus précisément qui voit ce que je publie… ni pourquoi on voit les messages d’autrui.

La question qui écrit à qui est devenue abyssale, car, avec le numérique, nous sommes passés de l’écriture avec les machines à l’écriture pour les machines. L’industrie numérique est devenue une industrie de la langue, comme le soulignait Frédéric Kaplan. Et cette industrialisation se fait non plus via des interfaces homme-machine mais via de nouvelles interfaces, produites par et pour les machines, dont la principale est l’API, l’interface de programmation, qui permet aux logiciels de s’interfacer avec d’autres logiciels.

Le nombre d’API publiée entre 2005 et 2012 a connu une croissance exponentielle, comme l’explique ProgrammableWeb qui en tient le décompte. Désormais, plus de 8000 entreprises ont un modèle d’affaire qui passe par les API. "Le web des machines émerge du web des humains. On passe d’un internet des humains opéré par les machines à un internet pour les machines opéré par les machines. L’API est la nouvelle membrane de nos organes techniques qui permet d’opérer automatiquement et industriellement sur les réseaux."

Ecrire directement avec le cerveau

Le monde industriel va déjà plus loin que le langage, rappelle Christian Fauré sur la scène des Entretiens du Nouveau Monde industriel. "Nous n’écrivons plus. Nous écrivons sans écrire, comme le montre Facebook qui informe nos profils et nos réseaux sociaux sans que nous n’ayons plus à écrire sur nos murs. Nos organes numériques nous permettent d’écrire automatiquement, sans nécessiter plus aucune compétence particulière. Et c’est encore plus vrai à l’heure de la captation de données comportementales et corporelles. Nos profils sont renseignés par des cookies que nos appareils techniques écrivent à notre place. Nous nous appareillons de capteurs et d’API "qui font parler nos organes". Les interfaces digitales auxquelles nous nous connectons ne sont plus des claviers ou des écrans tactiles… mais des capteurs et des données." Les appareillages du Quantified Self sont désormais disponibles pour le grand public. La captation des éléments physiologique s’adresse à nos cerveaux, comme l’explique Martin Lindstrom dans Buy.Ology. "Nous n’avons même plus besoin de renseigner quoi que ce soit. Les capteurs le font à notre place. Pire, le neuromarketing semble se désespérer du langage. On nous demande de nous taire. On ne veut pas écouter ce que l’on peut dire ou penser, les données que produisent nos capteurs et nos profils suffisent." A l’image des séries américaines comme Lie to Me ou the Mentalist où les enquêteurs ne s’intéressent plus à ce que vous dites. Ils ne font qu’observer les gens, ils lisent le corps, le cerveau. "L’écriture de soi n’est plus celle de Foucault, les échanges entre lettrés. On peut désormais s’écrire sans savoir écrire. Nous entrons dans une époque d’écriture automatique, qui ne nécessite aucune compétence. Nous n’avons même plus besoin du langage. L’appareillage suffit à réactualiser le connais-toi toi-même  !"

Google et Intel notamment investissent le champ des API neuronales et cherchent à créer un interfaçage direct entre le cerveau et le serveur. Le document n’est plus l’interface. Nous sommes l’interface !

"Que deviennent la démocratie et la Res Publica quand les données s’écrivent automatiquement, sans passer par le langage ? Quand la distinction entre le public et le privé disparaît ? Alors que jusqu’à présent, la compétence technique de la lecture et de l’écriture était la condition de la citoyenneté", interroge Christian Fauré.

Les capteurs et les interfaces de programmation ne font pas que nous quantifier, ils nous permettent également d’agir sur notre monde, comme le proposent les premiers jouets basés sur un casque électroencéphalographique (comme Mindflex et Star Wars Science The Force Trainer), casques qui utilisent l’activité électrique du cerveau du joueur pour jouer. Ces jouets sont-ils en train de court-circuiter notre organe physiologique ?

Mais, comme l’a exprimé et écrit Marianne Wolf, nous n’étions pas destinés à écrire. Cela ne nous a pas empêchés de l’apprendre. Nous sommes encore moins nés pour agir sur le réel sans utiliser nos organes et nos membres comme nous le proposent les casques neuronaux.

Quand on regarde les cartographies du cortex somatosensoriel on nous présente généralement une représentation de nous-mêmes selon l’organisation neuronale. Celle-ci déforme notre anatomie pour mettre en évidence les parties de celle-ci les plus sensibles, les plus connectés à notre cerveau. Cette représentation de nous est la même que celle que propose la logique des capteurs. Or, elle nous ressemble bien peu.

(Image extraite de la présentation de Christian Fauré : ressemblons à notre cortex somatosensoriel ?)

Que se passera-t-il demain si nous agissons dans le réel via des casques neuronaux ? La Science Fiction a bien sûr anticipé cela. Dans Planète interdite, le sous-sol de la planète est un vaste data center interfacé avec le cerveau des habitants de la planète qui ne donne sa pleine puissance que pendant le sommeil des habitants. "Ce que nous rappelle toujours la SF c’est que nos pires cauchemars se réalisent quand on interface l’inconscient à la machine, sans passer par la médiation de l’écriture ou du langage. Si la puissance du digital est interfacée et connectée directement aux organes physiologiques sans la médiation de l’écriture et du langage, on imagine alors à quel point les questions technologiques ne sont rien d’autre que des questions éthiques", conclut le philosophe.

Si on ne peut qu’être d’accord avec cette crainte de la modification du cerveau et de la façon même dont on pense via le numérique comme c’était le cas dans nombre d’interventions à cette édition des Entretiens du Nouveau Monde industriel, peut-être est-il plus difficile d’en rester à une dénonciation, comme l’a montré l’ambiguïté du discours de Maryanne Wolf. Si nous avons de tout temps utilisé des organes techniques, c’est dans l’espoir qu’ils nous libèrent, qu’ils nous transforment, qu’ils nous distinguent des autres individus de notre espèce et des autres espèces. Pour répondre à Christian Fauré, on peut remarquer que la SF est riche d’oeuvres qui montrent ou démontrent que l’augmentation de nos capacités par la technique était aussi un moyen pour faire autre chose, pour devenir autre chose, pour avoir plus de puissance sur le monde et sur soi. Il me semble pour ma part qu’il est important de regarder ce que les interfaces neuronales et les capteurs libèrent, permettent. Dans the Mentalist, pour reprendre la référence de Christian Fauré, ce sont les capacités médiumniques extraordinaires de l’enquêteur qui transforme son rapport au monde et aux autres. Si l’interfaçage direct des organes physiologique via des capteurs et des données produit de nouvelles formes de pouvoir, alors il est certain que nous nous en emparerons, pour le meilleur ou pour le pire. On peut légitimement le redouter ou s’en inquiéter, mais ça ne suffira pas à nous en détourner.

Qu’allons-nous apprendre en jouant de l’activité électrique de nos cerveaux ? On peut légitimement se demander ce que cela va détruire… Mais si on ne regarde pas ce que cela peut libérer, on en restera à une dénonciation sans effets.



 

Auteur: Guillaud Hubert

Info: https://www.lemonde.fr/blog/internetactu/2013/01/11/notre-cerveau-a-lheure-des-nouvelles-lectures/

[ communication ] [ réflexivité ] [ métalangage ] [ secondéités intégrées ] [ prospective ] [ niveaux de lecture ] [ citation s'appliquant à ce logiciel ] [ inversion ] [ triade ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie occidentale

Le symbolique, l'imaginaire et le réel : Lacan, Lévi-Strauss et Freud

" Tout comportement est communication." Gregory Bateson

Contrairement à l'expérience de la psychanalyse aux Etats-Unis, Freud arriva très tard en France où il fut plus ou moins réfuté par Sartre dans Son "Etre et Néant" avant même son arrivée. Curieusement, c'est à l'apogée de l'existentialisme et de la psychanalyse existentielle, dans les années cinquante et au début des années soixante, qu'un analyste français inconnu de la génération Sartre entama une relecture radicale des textes freudiens.
Son travail devait avoir une telle influence dans les années soixante-dix qu'il sauva entièrement Freud de l'orientation médicale positiviste apportée par la société psychanalytique parisienne, et réintégra son travail dans ce que les Français appellent encore les sciences humaines.
Il s'agit de Jacques Lacan, pilier de l'Ecole freudienne de Paris - styliste hermétique et obscur, conférencier envoûtant, penseur intransigeant et inflexible, profondément préoccupé par ses propres écrits et prérogatives - qui fut interdit par la Fédération internationale lorsque lui et ses collègues, principalement du à des rivalités internes, quittèrent la société parisienne en 1953.
Il y a sans doute plus d'anecdotes dénigrantes, et probablement calomnieuses, qui circulent sur Lacan au sein de l'incestueux climat intellectuel parisien que sur tout autre penseur influent. Mais si le travail de Lacan signifie quelque chose, nous devons séparer les idiosyncrasies personnelles bien connues de Lacan de la contribution unique qu'il apporta à notre compréhension de Freud.

Bien que Lacan ait commencé son oeuvre originale à la fin des années trente, sous l'influence de la phénoménologie et de l'existentialisme husserliens, ce n'est que dans les années soixante qu'il commença à être réellement écouté en France, et ses écrits ne commencèrent à arriver en Angleterre et aux Etats-Unis que récemment. S'attaquant à l'"intellectualisme" français et au culte de l'"expert", à l'"empirisme", tout comme à la "biologisation" britanniques et à l'"adaptation" et au "behaviorisme" américains dans une série de polémiques cinglantes, son seul travail a rendu impossible, à tout penseur français qui se respecte, de continuer à ignorer les textes de Freud. L'intégration de ce texte dans la culture du cogito cartésien a déjà eu des résultats surprenants et féconds. Reste à savoir ce que Lacan va faire passer aux Etats-Unis - où l'enthousiasme même de l'acceptation initiale de Freud par les Américains eut tendance à réduire ses idées à des banalités et ses théories quasi au statut de jeu social.

Nous découvrons maintenant, par exemple, un nouveau retour à la théorie de Breuer-Freud sur la catharsis thérapeutique - autrefois popularisée en tant que "psychodrame" - sous une nouvelle forme de "désublimation répressive" : thérapie du "cri primal". Mais les héros des talk-shows de fin de soirée vont et viennent avec une régularité monotone et, en fin de compte, il nous reste toujours les grandes œuvres du génie pour y méditer : Hegel, Marx, Freud, Dostoïevski, Rousseau, Balzac, pour ne citer que quelques-uns de nos prédécesseurs les plus récents. Et ce que nous découvrons, c'est que nous devons apprendre à lire avant de parler, que nous devons apprendre à les lire d'un point de vue social critique, aussi libre de préjugés ethnocentriques, socioéconomiques et culturels que possible.
En un mot, nous devons apprendre à lire dans une perspective non académique, dans la perspective d'une expérience de vie où ces auteurs et leurs quêtes personnelles font partie de notre quête individuelle et collective. Je préférerais lire l'Interprétation des rêves comme un roman, par exemple, ou le célèbre cas du docteur " psychotique " Schreber comme de la philosophie, ou les Frères Karamazov comme une étude métapsychologique, que l'inverse. Lacan a contribué à rendre ce genre de lecture possible.
Une grande partie de ce que Lacan cherchait à accomplir avec ses étudiants dans les années cinquante n'a plus grand intérêt aujourd'hui, car il s'agissait d'attaques contre la technique thérapeutique d'un groupe de psychanalystes français très peu doués, objectivées et liés à la culture. Mais son attaque contre la "psychologie de l'ego" de praticiens comme Hartmann, Kris et Lbwenstein, ou le "behaviorisme " de Massermann, est toujours valable (Lacan, 1956a ; Wilden, 196Sa : 1-87). Et ceux qui s'y sont opposés avec tant de véhémence en France constatent aujourd'hui qu'ils ne peuvent rejeter ses analyses critiques des textes freudiens et s'appeler encore Freudiens. Mais si Lacann inspira une école française d'analyse qui se veut anti-institutionnelle, anti-psychiatrique et profondément critique à la fois à l'égard de "l'ajustement" de l'individu et de ceux que Marcuse nommait "révisionnistes néofreudiens", il n'a probablement pas fait plus pour les pratiques analytiques que ce qui a été réalisé par des thérapeutes comme Laing, Esterson et Cooper, au Royaume-Uni, et par des gens comme Ruesch, Bateson, Haley, Weakland ou Jackson, aux Etats-Unis.
De plus, la psychanalyse est un privilège socio-économique réservé aux personnes qui ont argent et loisirs pour se faire plaisir. La question de "la guérison" est en tout cas tout à fait débattable, et nous savons bien que la psychologie, la psychiatrie et la psychothérapie en général ont toujours été les véhicules des valeurs du statu quo (à l'exception extraordinaire de Wilhelm Reich, dont les théories ne correspondent malheureusement jamais au niveau élevé de son engagement social).
Et comme la plupart d'entre nous apprenons à vivre avec nos blocages, il est alors très peu probable que nous devions apprendre un jour apprendre à vivre avec les effets aliénants de notre société unidimensionnelle et technologique en ayant à nous préoccuper de psychanalyse ? En tout état de cause, personne, en quête d'une perspective véritablement critique, ne tentera de construire une théorie de l'homme et de la femme essentiellement basée sur la psychologie humaine, car le "discours scientifique" de la psychologie vise à nier ou à omettre le contenu socio-économique collectif à l'intérieur duquel les facteurs psychologiques jouent leur rôle.
J'essaierai de montrer plus loin que l'axiomatique fermeture de la plupart des psychanalystes dans la plénitude de ce contexte - et, je crois, dans sa primauté - génère des problèmes purement logiques dans la théorie, problèmes dont elle n'est pas, logiquement, équipée pour les surmonter. Ainsi, ce qui apparaît dans la théorie logico-mathématique de Bateson de la " double liaison " (chapitre V) comme une oscillation, apparaît nécessairement en psychanalyse, sous une forme ou une autre, comme une théorie de la répétition. Lacan, par exemple, fit appel à Kierkegaard (Repetition, 1843) pour étayer son interprétation de Freud, et pourtant si l'on regarde de près les écrits de Kierkegaard, en particulier les siens propres ou ceux également publiés en 1843, on découvre que la théorie entière dépend de l'incapacité de Kierkegaard à dépasser, de manière logique ou existentielle, les injonctions (doubles liens) paradoxales qu'il reçoit de son environnement familial et social. Par conséquent, le voilà condamné à osciller sans cesse entre un "soit" et un "ou". Ce qui apparaît dans la théorie de Bateson comme une réponse nécessaire aux injonctions émanant des rapports de pouvoir et de domination dans l'ordre social, et qui apparaît généralement dans la psychanalyse, et plus particulièrement chez Lacan, comme de la "compulsion itérative". Ainsi, soit la responsabilité est renvoyée à l'individu (par les "instincts" ou quelque autre métaphore de ces constructions biomécaniques), soit, comme chez Lacan, elle se transforme subtilement en une forme "d'ordre naturel des choses", via les paradoxes que le langage crée dans la condition humaine.
Contrairement à la théorie du double lien, les deux points de vue supposent une homogénéité dans la société qui n'existe tout simplement pas et servent à rationaliser les dominations en refusant de traiter la relation entre pouvoir, connaissance et oppression, ils ne voient pas la différence, dans la société, entre ce que Marcuse appela "répression" et "sur-répression". Malgré l'incompréhension de Marcuse à l'égard du Freud "clinique" - et malgré sa dépendance à la théorie bioénergétique des instincts - la distinction est importante. Peu de théoriciens américains, par exemple, envisageraient sérieusement le calvaire des minorités américaines dans leur lutte pour les droits socio-économiques élémentaires, simplement en termes de "compulsion itératives" telle une révolte contre le père (ou la mère).
Il m'est impossible de parler de Freud ou de Lacan sans utiliser les contributions que Bateson et Marcuse - de manières différentes et même mutuellement opposées - ont apportées à notre compréhension des relations humaines. Il faut d'une part traiter la perception de la psychanalyse et de la psychologie comme des rationalisations des valeurs de notre culture (l'oppression des femmes, en particulier), et d'autre part, montrer comment elles peuvent contribuer à une dévalorisation de ces valeurs. L'analyse de Bateson des relations de pouvoir par la double contrainte est, je crois, essentielle à la théorie sociale et psychologique, et je ne sais comment expliquer la théorie de l'imaginaire de Lacan sans elle. En tout cas, Freud décrit la relation entre l'ego et l'idéal de l'ego en des termes similaires à ceux d'une double liaison (double bind, dans The Ego and the I, Standard Edition, XIX, 34) : "Tu devrais être ainsi (comme ton père), mais tu ne dois pas être ainsi (comme ton père)."
Dans le monde contemporain de la contestation, il n'y a aucune réponse à la façon dont la psychanalyse est régulièrement - et nécessairement - remise en question, si le Freud dont nous parlons est le déterminant hydraulique, instinctif, électromagnétique et entropique que nous pensions tous connaître.
Il y a une réponse, cependant, si nous découvrons la perspective communicationnelle et linguistique derrière l'acceptation explicite ou implicite par Freud des principes mécanistes de la science physique et économique du XIXe siècle. Après tout, la psychanalyse est bien la "cure parlante", comme Lacan n'a jamais manqué d'insister dessus, et les pages des écrits de Freud s'intéressent avant tout au langage. Bien plus intéressante que la théorie de l'ego, de la personnalité et du surmoi, par exemple, est la conception que Freud a de l'inconscient et du rêve comme des scènes (Darstellungen) de distorsions (Entstellungen) et de (re)présentations (Vorstellungen). Mieux que coller à la préoccupation contemporaine pour les systèmes et les structures que la "psychologie de l'ego" de Freud, dans son premier modèle de processus primaires et secondaires. Plus significative que son déterminisme il y a sa théorie de la "surdétermination" du symptôme ou du rêve, qui est un concept proche de la redondance en théorie de l'information et de l'équifinalité en gestaltisme et biologie.
Si nous devons rejeter les principes mécanistes du principe du plaisir, nous pouvons encore découvrir le modèle sémiotique des niveaux de communication dans les premiers travaux de Freud. Plus utile que la "deuxième" théorie du symbolisme (dérivée de Stekel), qui assimile les icônes ou les images (analogues) aux symboles sexuels (Jones, Ferenczi, et al.), est la "première" ou théorie "dialectique", qui dépend de la condensation et du déplacement des signes (Zeichen). Le rêve doit être traduit de l'image en texte avant de pouvoir être interprété (par le rêveur), et la refoulement est, comme le disait Freud en 1896, "un échec de la traduction". De plus, aucune théorie actuelle de la mémoire n'est essentiellement différente de la métaphore originale de Freud sur le "traçage" de voies via les traces de mémoire dans le cerveau.Je reviendrai dans un instant sur une description plus précise de l'orientation sémiotique et linguistique de Freud. Le fait est que, sans le travail de Lacan, je doute que nous aurions découvert ce Freud - bien que l'analyse de Karl Pribram du Projet neuropsychologique pour une psychologie scientifique (1895) aille dans le sens d'une relecture de Freud au moins au niveau de la théorie de l'information et du feedback (Pribram, 1962).
Le problème avec Lacan, c'est qu'à première vue, ses écrits sont presque impossibles à comprendre. Ses Ecrits (1966) - et seul un Lacan pouvait avoir l'orgueil d'intituler son oeuvre simplement "Écrits" - titre peut-être plus à lire comme "discours de schizophrène" - ou comme de la poésie ou autres absurdités, selon vos préjugés et votre tendance au transfert positif ou négatif - que tout autre.
L'hermétisme de Lacan ne peut être excusé - pas plus que son attitude envers le lecteur, qui pourrait s'exprimer ainsi : "aime-le" ou "c'est à prendre ou à laisser". Mais bien que la destruction personnelle de la syntaxe française par Lacan le rende assez ardu même pour le lecteur français, il y a au moins une tradition intellectuelle suffisamment homogène à Paris qui fait que Lacan y est bien moins étranger qu'en Grande-Bretagne ou aux Etats Unis. La tradition phénoménologique, existentialiste et hégélienne-marxiste en France rend moins nécessaire d'expliquer ce que vous entendez par Hegel, ou Husserl, ou Heidegger, ou Kojéve, ou Sartre. Et la plupart des gens reconnaîtront de toute façon une idée, même si vous ne mentionnez pas la source, ou si vous citez ou paraphrasez sans référence, car ce genre de "plagiat" est généralement acceptable en France.
Fait assez significatif cependant, Lacan n'aurait pas pu réaliser son analyse de Freud sans l'influence de l'école de linguistique suisso-américano-russe représentée par Roman Jakobson, qui a longtemps témoigné de l'influence du formalisme russe et du linguistique structurel de Saussure aux Etats-Unis. Mais même cette influence est parvenue indirectement à Lacan. L'influence la plus importante sur Lacan fut celle de l'anthropologue structurel français Claude-Lévi-Strauss, qui rencontra et travailla avec Jakobson à la New School for Social Research de New York, en 1942-1945.

Lévi-Strauss tend à ne pas être très apprécié par les anthropologues américains et britanniques qui sont redevables à la tradition analytique et dite empiriste, ce qui en dit long sur lui. Il est à l'origine d'une nouvelle méthodologie et d'une épistémologie d'accompagnement en sciences humaines en France, généralement appelée "structuralisme". (Aujourd'hui, cependant, le terme désigne simplement une mode, un peu comme l'existentialisme.) Le structuralisme, dans le sens d'une méthodologie non empiriste, non atomiste, non positiviste des lois de la relation, est d'autre part complété par les avancées en théorie des systèmes généraux, en cybernétique non mécanique, en théorie de la communication et en études écologiques. Tant la nouvelle approche structurelle que la nouvelle approche systémique-cybernétique semblent parler en fait d'une véritable révolution épistémologique dans les sciences de la vie et les sciences sociales, dont nous entendrons beaucoup plus parler au cours de la prochaine décennie (si nous y survivons, bien sûr).
Lévi-Strauss chercha à utiliser les travaux des phonologues structuraux sur "l'opposition binaire" des phonèmes en tant que modèle pour l'analyse des mythes et des relations et échanges au sein des sociétés dites "primitives" - dont il a ensuite remis en question le supposé "primitivisme". Constatant qu'un nombre relativement faible d'"oppositions" entre "traits distinctifs" (graves/aigus, voix/silence, etc.) sont suffisants pour former l'infrastructure acoustique de toute langue connue, Lévi-Strauss tenta de découvrir des ensembles analogues d'oppositions dans les systèmes de parenté et dans les mythes. Ses travaux les plus récents se sont concentrés sur le mythe en tant que musique.
Avec tous ces machins douteux dans son approche, Lévi-Strauss a néanmoins introduit un type de signification dans l'étude du mythe - auparavant presque exclusivement axé sur le contenu plutôt que sur la forme - là où ça n'existait pas avant. Comme pour l'œuvre de Lacan - ou celle de Freud - le principal problème du structuralisme lévi-straussien ne réside pas dans la méthodologie, mais dans son application, c'est-à-dire dans les revendications universelles formulées en son nom.
Je reviendrai sur la critique plus détaillée du "structuralisme" dans les chapitres suivants. Pour l'instant, il suffira de donner un exemple bref et purement illustratif de l'utilisation par Lévi-Strauss du concept d'"opposition binaire" dans l'étude du mythe (Lévi-Strauss, 1958 : chap. 11).
Pour lui, le mythe est une représentation diachronique (succession dans le temps) d'un ensemble d'oppositions synchroniques (intemporelles). Il croit que la découverte de ces oppositions synchroniques est une déclaration sur la "structure fondamentale de l'esprit humain". Dans les chapitres suivants, j'analyserai et critiquerai le terme "opposition" - qui cache les catégories de "différence", "distinction", "opposition", "contradiction" et "paradoxe" . Je critiquerai également le concept de relations "binaires" " - qui dissimule toute une série de malentendus sur la communication analogique et numérique en général, et plus particulièrement sur "non", "négation", "exclusion", "zéro" et "moins un", ainsi que sur la relation entre "A" et "non-A". J'essaierai également de démontrer l'idée fausse que Lévi-Strauss se fait de la confusion entre "esprit", "cerveau" et "individu". Ceci est étroitement lié à la conception de Piaget de l'organisme comme "structure paradigmatique", et à l'incapacité, dans la plupart des travaux actuels en sciences de la vie et sciences sociales, de comprendre le problème logico-mathématique et existentiel des frontières et des niveaux dans les systèmes ouverts de communication et d'échange (systèmes impliquant ou simulant la vie ou "esprit", systèmes vivants et sociaux).

La méthode de lecture des mythes de Lévi-Strauss est entièrement nouvelle, simple à comprendre, globale et satisfaisante sur le plan esthétique. Il suggère de regarder le mythe comme on regarderait une partition d'orchestre dans laquelle les notes et les mesures à jouer en harmonie simultanée par différents instruments se sont mêlées à la cacophonie d'une succession linéaire. Ainsi, si nous représentons cette succession par les nombres 1, 2, 4, 7, 8, 2, 3, 4, 6, 8, 1, 4, 5, 7, nous pouvons rétablir la partition originale en mettant tous les nombres semblables ensemble en colonnes verticales :

112234444567788

Cette matrice est exactement ce que l'on peut construire dans l'analyse phonologique d'une phrase, où l'on peut montrer qu'une séquence linéaire de mots se construit sur une succession d'oppositions binaires entre des éléments acoustiques distinctifs.
Malheureusement pour ce que Lévi-Strauss considère comme la clé de voûte de sa méthode, l'analogie qu'il fait entre phonologie structurelle et mythe est fausse, alors que sa méthodologie est extrêmement fertile. Ce problème met en évidence la difficulté centrale de l'utilisation de l'œuvre de Lévi-Strauss et de Lacan. Il faut montrer que les sources supposées de leurs nouvelles contributions aux sciences sociales ne sont pas ce qu'elles pensent être ; il faut démontrer où et comment leurs points de vue servent une fonction idéologique répressive ; et il faut montrer l'inadéquation à la fois de nombreux axiomes de la méthode et de nombreuses applications supposées.

Sans développer une critique détaillée à ce stade, on peut dire d'emblée que c'est une erreur de traiter un système d'oppositions sans contexte entre caractéristiques acoustiques des "bits" des informations (traits caractéristiques) comme étant isomorphe avec un mythe, qui est un système avec un contexte. Le mythe est nécessairement contextuel parce qu'il manipule l'information afin d'organiser et de contrôler certains aspects d'un système social, et il ne peut donc être considéré comme isolé de cette totalité. Contrairement aux "mythemes" de Lévi-Strauss ("éléments constitutifs bruts" du mythe, par analogie avec le "phonème"), les phonèmes sont des bits d'information insignifiants et non significatifs. Les phonèmes et les oppositions phonémiques sont les outils d'analyse et d'articulation (dont la caractéristique fondamentale est la différence) dans un système dans lequel signification et sens sont en dehors de la structure phonémique. Mythemes' et oppositions' entre mythemes, au contraire, impliquent à la fois signification et sens : ils ont 'du contenu'. Lévi-Strauss traite le mythe comme s'il s'agissait d'une langue représentative sous la forme d'une grammaire sans contexte, ou traite les mythemes comme des "informations" au sens technique des systèmes quantitatifs fermés de la transmission des informations comme étudiés par Shannon et Weaver. La science de l'information concerne l'étude statistique des processus stochastiques et des chaînes de Markov (chapitre IX) - et Chomsky a démontré qu'aucun langage connu ne peut être correctement généré à partir d'une grammaire modelée sur ces processus. Il a également été démontré que le langage est un système d'un type logique supérieur à celui qui peut être généré par des algorithmes sans contexte (grammaires).

Bien que Lévi-Strauss parle du mytheme comme d'un caractère "supérieur" à tout élément similaire du langage, le modèle de l'opposition phonémique binaire reste ce qu'il considère comme le fondement scientifique de sa méthode. Ainsi le mytheme devient l'équivalent d'un outil d'articulation (un trait distinctif) employé par un système de signification d'un autre type logique (langage). Lorsque nous cherchons à découvrir ce qu'est cet autre système chez Lévi-Strauss, nous trouvons cette catégorie de "pensée mythique". Mais la pensée mythique est déjà définie sur la base des mythemes eux-mêmes. C'est un système d'articulation des oppositions par "une machine à supprimer le temps" (le mythe). Ce qui manque dans ce cercle, c'est le contexte réel et matériel dans lequel le mythe surgit et auquel il fait référence.
Cependant, Lévi-Strauss insistera sur le fait que sa méthodologie, contrairement au formalisme pur, est bien "contextuelle" (Lévi-Strauss, 1960a). Il se réfère constamment aux catégories de parenté, au contexte zoologique et botanique du mythe et aux caractéristiques des entités matérielles ("crues", "cuites", "pourries" et ainsi de suite). En réalité, cependant, toutes les "entités matérielles" et les "relations matérielles" qu'il emploie parviennent à cette analyse déjà définie, de façon tautologique, comme des catégories de pensée mythique. Par conséquent, le "contexte" qu'évoque Lévi-Strauss est invariablement le contexte des "idées" ou de "l'esprit", qu'il conçoit, comme Kant, comme étant un antécédent de l'organisation sociale, tant épistémologiquement qu'ontologiquement. Au sein de ce cadre idéaliste, il fait ensuite un saut rapide vers les catégories matérielles de la physique et de la chimie, qu'il évoque régulièrement comme le fondement ultime de ses catégories idéales.

Mais entre le contexte des idées et le contexte des atomes et des molécules (ou même celui du code génétique) il manque un niveau d'organisation unique mais énorme : le contexte socio-économique de la réalité humaine. Et ce niveau d'organisation contient un paramètre que l'on ne retrouve pas en physique, en biologie, en sciences de l'information, dans les langages, les idées, ou les mythes considérés comme systèmes d'opposition synchrones : la ponctuation du système par le pouvoir de certaines de ses parties à en exploiter les autres (en incluant la "nature" même). Toutes les idées, tous les électrons et "bits" d'information sont en effet égaux, aucun d'entre eux n'est différent des autres, et aucun groupe n'exploite les autres. Et alors que dans les systèmes qui n'impliquent pas l'exploitation sociale, les mythes peuvent à juste titre être considérés comme remplissant une fonction d'organisation "pure" ou "neutre", dans tous les autres systèmes, les mythes deviennent la propriété d'une classe, caste ou sexe. Un mythe qui est la propriété d'une classe est en fait une définition de l'idéologie. Le mythe cesse alors de servir la fonction neutre d'organisation pure et simple ; il sert de rationalisation d'une forme donnée d'organisation sociale.
L'étude structurelle du mythe est, comme Lévi-Strauss l'a souvent dit, une autre variante des mythes qu'il analyse. Comme eux, c'est un système d'oppositions binaires. Mais ce n'est pas une mécanique pour la suppression du temps, mais pour la suppression de l'histoire. Et puisque le "structuralisme" est effectivement la propriété d'une classe, nous pouvons donc l'identifier comme un système de rationalisation idéologique - ce qui n'est pas la même chose, de dire qu'il n'a aucune valeur.

L'analogie erronée de Lévi-Strauss entre un système sans contexte et un système contextuel - et donc tout l'édifice que les structuralistes ont érigé - provient d'une confusion entre langage et communication. D'une part, une telle confusion n'est possible que dans des théories ponctuées de façon à exclure la catégorie sociale objective de l'exploitation. D'autre part, elle dépend d'une unique isomorphie réelle, qui est ensuite utilisée pour réduire les différents niveaux d'organisation les uns par rapport aux autres : le fait que le langage, les systèmes de parenté, l'étude structurelle des mythes et la science de la phonologie soient des communications numériques (discontinues) au sujet de rapports analogues (continus). Une caractéristique unique de la communication numérique, à savoir qu'il s'agit d'un système de communication comportant limites et lacunes, est réifiée par l'argument structuraliste de sorte qu'il peut être appliqué sans distinction, comme catégorie ontologique implicite, à chaque niveau de complexité où apparaissent des "limites et des lacunes ". De telles formes numériques apparaissent nécessairement, comme instrument de communication, à tous les niveaux de complexité biologique et sociale. Par conséquent, l'argument réductionniste des structuralistes est grandement facilité. De plus, le fait que l'opposition binaire soit aussi une catégorie importante en physique classique (électromagnétisme par exemple) autorise les structuralistes à faire l'erreur épistémologique supplémentaire de confondre matière-énergie et information.

Auteur: Wilden Anthony

Info: Extrait de System and Structure (1972) sur http://www.haussite.net. Trad. Mg

[ anti structuralisme ] [ vingtième siècle ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

proto-linguistique

Cette langue ancienne use de la seule grammaire basée entièrement sur le corps humain

Une famille de langues en voie de disparition suggère que les premiers humains utilisaient leur corps comme modèle de réalité

Un matin de décembre 2004, des adultes et des enfants erraient sur le rivage de Strait Island dans le golfe du Bengale lorsque l'un d'eux a remarqué quelque chose d'étrange. Le niveau de la mer était bas et des créatures étranges qui habitent normalement la zone crépusculaire profonde de l'océan se balançaient près de la surface de l'eau. “ Sare ukkuburuko ! ”— la mer s'est renversée! — cria Nao Junior, un des derniers héritiers d'une sagesse transmise sur des milliers de générations à travers sa langue maternelle. Il savait ce que signifiait ce phénomène bizarre. Tout comme d'autres peuples autochtones des îles Andaman. Ils se sont tous précipités à l'intérieur des terres et en hauteur, leurs connaissances ancestrales les sauvant du tsunami dévastateur qui s'est abattu sur les côtes de l'océan Indien quelques minutes plus tard et qui a emporté quelque 225 000 personnes.

Lorsque j'ai rencontré Nao Jr. pour la première fois, au tournant du millénaire, il était dans la quarantaine et l'un des neuf seuls membres de son groupe autochtone, le Grand Andamanais, qui parlait encore l'idiome de ses ancêtres ; les jeunes préférant l'hindi. En tant que linguiste passionnée par le décodage de structure, j'avais étudié plus de 80 langues indiennes de cinq familles différentes : indo-européenne (à laquelle appartient l'hindi), dravidienne, austroasiatique, tibéto-birmane et taï-kadaï. J'étais sur les îles pour documenter leurs voix autochtones avant qu'elles ne se transforment en murmures. Le peu que j'ai entendu était si déconcertant que j'y suis retourné plusieurs fois au cours des années suivantes pour essayer de cerner les principes qui sous-tendent les grandes langues andamanaises.

Ici mes principaux professeurs, Nao Jr. et une femme nommée Licho, parlaient un pastiche de langues qui comptaient encore quelque 5 000 locuteurs au milieu du 19e siècle. Le vocabulaire moderne étant très variable, dérivé de plusieurs langues parlées à l'origine sur l'île d'Andaman du Nord. Ce qui m'était vraiment étranger, cependant, c'était leur grammaire, qui ne ressemblait à rien de ce que j'avais jamais rencontré.

Une langue incarne une vision du monde et, alors qu'une civilisation, change et se développe par couches. Les mots ou les phrases fréquemment utilisés se transforment en formes grammaticales de plus en plus abstraites et compressées. Par exemple, le suffixe "-ed", signifiant le passé en anglais moderne, provient de "did" (c'est-à-dire que "did use" est devenu "used") ; Le vieil anglais où in steed et sur gemong sont devenus respectivement "instead" et "among". Ces types de transitions font de la linguistique historique un peu comme l'archéologie. Tout comme un archéologue fouille soigneusement un monticule pour révéler différentes époques d'une cité-État empilées les unes sur les autres, un linguiste peut séparer les couches d'une langue pour découvrir les étapes de son évolution. Il faudra des années à Nao Jr. et Licho endurant patiemment mes interrogatoires et mes tâtonnements pour que j'apprenne enfin la règle fondamentale de leur langue.

Il s'avère que le grand andamanais est exceptionnel parmi les langues du monde de par son anthropocentrisme. Il utilise des catégories dérivées du corps humain pour décrire des concepts abstraits tels que l'orientation spatiale et les relations entre les objets. Bien sûr, en anglais, nous pourrions dire des choses comme "la pièce fait face à la baie", "la jambe de la chaise s'est cassée" et "elle dirige l'entreprise". Mais en Grand Andamanais, de telles descriptions prennent une forme extrême, avec des morphèmes, ou segments sonores significatifs, qui désignent différentes zones du corps s'attachant aux noms, verbes, adjectifs et adverbes - en fait, à chaque partie du discours - pour créer des significations diverses. Parce qu'aucune autre langue connue n'a une grammaire basée sur le corps humain et/ou un partage des mots apparentés -  des mots qui ont une signification et une prononciation similaires, ce qui indique un lien généalogique - avec le grand andamanais, la langue constitue sa propre famille .

L'aspect le plus durable d'une langue est sa structure, qui peut perdurer sur des millénaires. Mes études indiquent que les Grands Andamanais furent effectivement isolés pendant des milliers d'années, au cours desquelles leurs langues ont évolué sans influence perceptible d'autres cultures. La recherche génétique corrobore ce point de vue, montrant que ces peuples autochtones descendent d'un des premiers groupes d'humains modernes qui a migré hors d'Afrique. En suivant le littoral du sous-continent indien, ils ont atteint l'archipel d'Andaman il y a peut-être 50 000 ans et y vivent depuis dans un isolement virtuel. Les principes fondamentaux de leurs langues révèlent que ces humains anciens ont conceptualisé le monde à travers leur corps.

PIÈCES DU CASSE-TÊTE

Lorsque je suis arrivé en 2001 à Port Blair, la principale ville de la région, pour mener une enquête préliminaire sur les langues autochtones, j'ai été dirigé vers Adi Basera, une maison que le gouvernement indien autorisait les Grands Andamanais à utiliser lorsqu'ils étaient en ville. C'était un bâtiment délabré avec de la peinture écaillée et des pièces sales ; enfants et adultes flânaient nonchalamment dans la cour. Quelqu'un m'a apporté une chaise en plastique. J'ai expliqué ma quête en hindi.

"Pourquoi es-tu venu ?" demanda Boro Senior, une femme âgée. "Nous ne nous souvenons pas de notre langue. Nous ne le parlons ni ne le comprenons. Il s'est avéré que toute la communauté conversait principalement en hindi, une langue essentielle pour se débrouiller dans la société indienne et la seule que les enfants apprenaient." Pendant que je le sondais cependant, Nao Jr. a avoué qu'il connaissait le Jero, mais parce qu'il n'avait personne avec qui en parler, il l'oubliait. Boro Sr. s'est avéré être la dernière personne à se souvenir de Khora, et Licho, alors dans la fin de la trentaine, qui était la dernière à parler le sare, la langue de sa grand-mère. Lorsqu'ils conversaient entre eux, ces individus utilisaient ce que j'appelle le Grand Andamanais actuel (PGA), un mélange de Jero, Sare, Bo et Khora - toutes langues des Andaman du Nord.

Lorsque les autorités britanniques ont établi une colonie pénitentiaire à Port Blair en 1858, les forêts tropicales de Great Andaman - comprenant le nord, le centre et le sud d'Andaman, ainsi que quelques petites îles à proximité - étaient habitées par 10 tribus de chasseurs et de cueilleurs qui semblaient culturellement liées. Les habitants du Great Andaman ont résisté aux envahisseurs, mais leurs arcs et leurs flèches n'étaient pas à la hauteur des fusils et, à une occasion, des canons de navires. Encore plus mortels furent les germes apportés par les étrangers, contre lesquels les insulaires n'avaient aucune immunité. Dans les années 1960, époque à laquelle les Andamans appartenaient à l'Inde, il ne restait plus que 19 Grands Andamanais, vivant principalement dans les forêts du nord d'Andaman. Les autorités indiennes les ont alors installés sur la petite île du détroit.

Un autre groupe de chasseurs-cueilleurs, les Jarawa, vivaient dans le sud d'Andaman, et lorsque les Grands Andamanais s'éteignirent , les Jarawa s'installèrent dans leurs territoires évacués du Moyen Andaman. Les Jarawa ont résisté au contact - et aux germes qui l'accompagnent - jusqu'en 1998 et sont maintenant au nombre d'environ 450. Leur culture avait des liens avec celle des Onge, qui vivaient sur Little Andaman et qui ont été sous controle des Britanniques dans les années 1880. Apparemment, les habitants de North Sentinel Island étaient également apparentés aux Jarawa. Ils continuent d'ailleurs de vivre dans un isolement volontaire, qu'ils ont imposé en 2018 en tuant un missionnaire américain.

(photo-schéma avec détails et statistiques des langage des iles adamans)

Mon enquête initiale a établi que les langues des Grands Andamanais n'avaient aucun lien avec celles des Jarawa et des Onge, qui pourraient constituer leur propre famille de langues. Réalisant que je devais documenter le Grand Andamanais avant qu'il ne soit réduit au silence, je suis revenu avec une équipe d'étudiants en 2005. C'était peu de temps après le tsunami, et les autorités avaient évacué les 53 Grands Andamanais vers un camp de secours à côté d'Adi Basera. Ils avaient survécu, mais leurs maisons avaient été inondées et leurs biens perdus, et un sentiment de bouleversement et de chagrin flottait dans l'air. Dans cette situation, Licho a donné naissance à un garçon nommé Berebe, source de joie. J'ai appris que les bébés étaient nommés dans l'utérus. Pas étonnant que les grands noms andamanais soient non sexistes !

Au camp, j'ai rencontré l'octogénaire Boa Senior, dernier locuteur de Bo et gardien de nombreuses chansons. Nous deviendrons très proches. Les grands jeunes andamanais avaient répondu au mépris des Indiens dominants pour les cultures autochtones en se détournant de leur héritage. Boa Sr me tenait la main et ne me laissait pas partir car elle était convaincue que ma seule présence, en tant qu'étranger rare qui valorisait sa langue, motiverait les jeunes à parler le grand andamanais. Pourtant, je l'ai appris principalement de Nao Jr. et Licho, dont l'intérêt pour leurs langues avait été enflammé par le mien. Il s'est avéré que Nao Jr. en savait beaucoup sur l'environnement local et Licho sur l'étymologie, étant souvent capable de me dire quel mot venait de quelle langue. J'ai passé de longues heures avec eux à Adi Basera et sur Strait Island, les accompagnant partout où ils allaient - pour nous prélasser à l'extérieur de leurs huttes, errer dans la jungle ou pêcher sur la plage. Plus ils s'efforçaient de répondre à mes questions, plus ils puisaient dans les profondeurs de la mémoire. J'ai fini par collecter plus de 150 grands noms andamanais pour différentsespèces de poissons et 109 pour les oiseaux .

Les responsables britanniques avaient observé que les langues andamanaises étaient un peu comme les maillons d'une chaîne : les membres des tribus voisines des Grands Andamans se comprenaient, mais les langues parlées aux extrémités opposées de l'archipel, dans les Andamans du Nord et du Sud, étaient mutuellement inintelligibles. En 1887, l'administrateur militaire britannique Maurice Vidal Portman publia un lexique comparatif de quatre langues, ainsi que quelques phrases avec leurs traductions en anglais. Et vers 1920, Edward Horace Man compila un dictionnaire exhaustif de Bea, une langue des Andaman du Sud. C'étaient des enregistrements importants, mais aucun n'a résolu le puzzle que la grammaire posait.

Moi non plus. D'une manière ou d'une autre, ma vaste expérience avec les cinq familles de langue indienne ne m'aidait pas. Une fois, j'ai demandé à Nao Jr. de me dire le mot pour "sang". Il m'a regardé comme si j'étais une imbécile et n'a pas répondu. Quand j'ai insisté, il a dit: "Dis-moi d'où ça vient." J'ai répondu: "De nulle part." Irrité, il répéta : "Où l'as-tu vu ?" Il fallait que j'invente quelque chose, alors j'ai dit : "sur mon doigt. Sa réponse est venue rapidement — "ongtei !" – puis il débita plusieurs mots pour désigner le sang sur différentes parties du corps. Si le sang sortait des pieds ou des jambes, c'était otei ; l'hémorragie interne était etei; et un caillot sur la peau était ertei . Quelque chose d'aussi basique qu'un nom changeait de forme en fonction de l'emplacement.

Chaque fois que j'avais une pause dans mon enseignement et d'autres tâches, je visitais les Andamans, pendant des semaines ou parfois des mois. Il m'a fallu un an d'étude concertée pour entrevoir le modèle de cette langue - et quand je l'ai fait, toutes les pièces éparses du puzzle se sont mises en place. Très excité, je voulus tout de suite tester mes phrases inventées. J'étais à l'Institut Max Planck d'anthropologie évolutive à Leipzig, en Allemagne, mais j'ai téléphoné à Licho et je lui ai dit : "a Joe-engio eole be". Licho a été bouleversé et m'a fait un compliment chéri : "Vous avez appris notre langue, madame !"

Ma phrase était simplement "Joe te voit". Joe était un jeune Grand Andamanais, et -engio était "seulement toi". Ma percée avait été de réaliser que le préfixe e- , qui dérivait à l'origine d'un mot inconnu désignant une partie interne du corps, s'était transformé au fil des éons en un marqueur grammatical signifiant tout attribut, processus ou activité interne. Donc l'acte de voir, ole, étant une activité interne, devait être eole. Le même préfixe pourrait être attaché à -bungoi , ou "beau", pour former ebungoi, signifiant intérieurement beau ou gentil ; de sare , pour "mer", pour former esare, ou "salé", une qualité inhérente ; et au mot racine -biinye, "pensant", pour donner ebiinye , "penser".

LE CODE CORPOREL

La grammaire que j'étais en train de reconstituer était basée principalement sur Jero, mais un coup d'œil dans les livres de Portman et de Man m'a convaincu que les langues du sud du Grand Andamanais avaient des structures similaires. Le lexique se composait de deux classes de mots : libre et lié. Les mots libres étaient tous des noms faisant référence à l'environnement et à ses habitants, tels que ra pour "cochon". Ils pourraient se produire seuls. Les mots liés étaient des noms, des verbes, des adjectifs et des adverbes qui existaient toujours avec des marqueurs indiquant une relation avec d'autres objets, événements ou états. Les marqueurs (spécifiquement, a- ; er- ; ong- ; ot- ou ut- ; e- ou i- ; ara- ; eto- ) dérivaient de sept zones du corps et étaient attaché à un mot racine, généralement sous forme de préfixe, pour décrire des concepts tels que "dedans", "dehors", "supérieur" et "inférieur". Par exemple, le morphème er- , qui qualifiait presque tout ce qui concernait une partie externe du corps, pouvait être collé à -cho pour donner ercho , signifiant "tête". Une tête de porc était ainsi raercho.

(Photo/schéma désignant les 7 zones du corps humain qui font référence ici)

Zone     Marqueur          Parties corps/sémantique       

1              a -                  en rapport avec la bouche/origine 

2              er -                 corps et parties externes supérieures

3              ong -              extrémités (doigts main, pied) 

4              ut/ot -             (cerveau/intellect) produits corporels, partie-tout,

5              e / i -               organes internes

6              ara -                organes sexuels et formes latérales/rondes

7              o -                   jambes/partie basse         

Cette dépendance conceptuelle n'était pas toujours le signe d'un lien physique. Par exemple, si la tête du porc était coupée pour être rôtie, le marqueur t- pour un objet inanimé serait attaché à er- pour donner ratercho ; ce n'était plus vivant mais toujours une tête de cochon. Le suffixe -icho indiquait des possessions véritablement séparables. Par exemple, Boa-icho julu signifiait "les vêtements de Boa".

Tout comme une tête, un nom, ne pouvait pas exister conceptuellement par lui-même, le mode et l'effet d'une action ne pouvaient être séparés du verbe décrivant l'action. Les Grands Andamanais n'avaient pas de mots pour l'agriculture ou la culture mais un grand nombre pour la chasse et la pêche, principalement avec un arc et des flèches. Ainsi, la racine du mot shile , qui signifie "viser", avait plusieurs versions : utshile , viser d'en haut (par exemple, un poisson) ; arashile, viser à distance (comme un cochon); et eshile, visant à percer.

Inséparables également de leurs préfixes, qui les dotaient de sens, étaient les adjectifs et les adverbes. Par exemple, le préfixe er- , pour "externe", a donné l'adjectif erbungoi , pour "beau" ; le verbe eranye, signifiant "assembler" ; et l'adverbe erchek, ou "rapide". Le préfixe ong- , la zone des extrémités, fournissait ongcho , "piquer", quelque chose que l'on faisait avec les doigts, ainsi que l'adverbe ongkochil, signifiant "précipitamment", qui s'appliquait généralement aux mouvements impliquant une main ou un pied. Important aussi était le morphème a-, qui renvoyait à la bouche et, plus largement, aux origines. Il a contribué aux noms aphong, pour "bouche", et Aka-Jero , pour "son langage Jero" ; les adjectifs ajom , "avide", et amu, "muet" ; les verbes atekho, "parler", et aathitul , "se taire" ; et l'adverbe aulu, "avant".

Ces études ont établi que les 10 langues originales du grand andamanais appartenaient à une seule famille. De plus, cette famille était unique en ce qu'elle avait un système grammatical basé sur le corps humain à tous les niveaux structurels. Une poignée d'autres langues autochtones, telles que le papantla totonaque, parlé au Mexique, et le matsés, parlé au Pérou et au Brésil, utilisaient également des termes faisant référence à des parties du corps pour former des mots. Mais ces termes ne s'étaient pas transformés en symboles abstraits, ni ne se sont propagés à toutes les autres parties du discours.

(Photo - tableau - schéma avec exemples de mots - verbes - adverbes, dérivés des  7 parties)

Plus important encore, la famille des langues semble être d'origine vraiment archaïque. Dans un processus d'évolution en plusieurs étapes, les mots décrivant diverses parties du corps s'étaient transformés en morphèmes faisant référence à différentes zones pour fusionner avec des mots basiques pour donner un sens. Parallèlement aux preuves génétiques, qui indiquent que les Grands Andamanais ont vécu isolés pendant des dizaines de milliers d'années, la grammaire suggère que la famille des langues est née très tôt, à une époque où les êtres humains conceptualisaient leur monde à travers leur corps. La structure à elle seule donne un aperçu d'une ancienne vision du monde dans laquelle le macrocosme reflète le microcosme, et tout ce qui est ou qui se passe est inextricablement lié à tout le reste.

ANCÊTRES, OISEAUX

Un matin sur Strait Island, j'ai entendu Boa Sr. parler aux oiseaux qu'elle nourrissait. J'ai écouté pendant un bon moment derrière une porte, puis je me suis montrée pour lui demander pourquoi elle leur parlait.

"Ils sont les seuls à me comprendre", a-t-elle répondu.

"Comment ça se fait?" J'ai demandé.

"Ne sais-tu pas qu'pas sont nos ancêtres ?"

J'ai essayé de réprimer un rire étonné, mais Boa l'a perçu. "Oui, ce sont nos ancêtres", a-t-elle affirmé. "C'est pourquoi nous ne les tuons ni ne les chassons. Tu devrais demander à Nao Jr.; il connaît peut-être l'histoire."

Nao ne s'en souvint pas tout de suite, mais quelques jours plus tard, il raconta l'histoire d'un garçon nommé Mithe qui était allé à la pêche. Il a attrapé un calmar, et en le nettoyant sur la plage, il a été avalé par un Bol , un gros poisson. Ses amis et sa famille sont venus le chercher et ont réalisé qu'un Bol l'avait mangé. Phatka, le plus intelligent des jeunes, a suivi la piste sale laissée par le poisson et a trouvé le Bol en eau peu profonde, la tête dans le sable. C'était un très grand, alors Phatka, Benge et d'autres ont appelé à haute voix Kaulo, le plus fort d'entre eux, qui est arrivé et a tué le poisson.

Mithe est sorti vivant, mais ses membres étaient engourdis. Ils allumèrent un feu sur la plage et le réchauffèrent, et une fois qu'il eut récupéré, ils décidèrent de manger le poisson. Ils le mirent sur le feu pour le faire rôtir. Mais ils avaient négligé de nettoyer correctement le poisson, et il éclata, transformant toutes les personnes présentes en oiseaux. Depuis ce moment-là, les Grands Andamanais conservent une affinité particulière avec Mithe, la Colombe Coucou Andaman ; Phatka, le corbeau indien ; Benge, l'aigle serpent Andaman; Kaulo, l'aigle de mer à ventre blanc ; Celene, le crabe pluvier; et d'autres oiseaux qu'ils considéraient comme des ancêtres.

Dans la vision de la nature des Grands Andamanais, la principale distinction était entre tajio, le vivant, et eleo , le non-vivant. Les créatures étaient tajio-tut-bech, "êtres vivants avec des plumes" - c'est-à-dire de l'air; tajio-tot chor, "êtres vivants à écailles", ou de l'eau ; ou tajio-chola, "êtres vivants de la terre". Parmi les créatures terrestres, il y avait des ishongo, des humains et d'autres animaux, et des tong, des plantes et des arbres. Ces catégories, ainsi que de multiples attributs d'apparence, de mouvement et d'habitudes, constituaient un système élaboré de classification et de nomenclature, que j'ai documenté pour les oiseaux en particulier. Parfois, l'étymologie d'un nom grand andamanais ressemblait à celle de l'anglais. Par exemple, Celene, composé de mots racines pour "crabe" et "épine", a été ainsi nommé parce qu'il craque et mange des crabes avec son bec dur et pointu.

La compréhension extrêmement détaillée de l'environnement naturel détenue par le peuple des Grands Andamanais (Nao Jr. nomma au moins six variétés de bords de mer et plus de 18 types d'odeurs) indique une culture qui a observé la nature avec un amour profond et un intérêt aigu. Considérant la nature comme un tout, ils ont cherché à examiner l'imbrication des forces qui construisent cet ensemble. L'espace était une construction culturelle, définie par le mouvement des esprits, des animaux et des humains le long d'axes verticaux et horizontaux. Dans la vision du monde des Grands Andamanais, l'espace et tous ses éléments naturels - le soleil, la lune, la marée, les vents, la terre et la forêt - constituaient ensemble le cosmos. Dans cette vision holistique, les oiseaux, les autres créatures et les esprits étaient tous interdépendants et faisaient partie intégrante du concept d'espace.

Le temps aussi était relatif, catégorisé en fonction d'événements naturels tels que la floraison des fleurs saisonnières, la disponibilité du miel - le calendrier du miel, pourrait-on l'appeler - le mouvement du soleil et de la lune, la direction des vents, la disponibilité des ressources alimentaires et le meilleur moment pour chasser le poisson ou d'autres animaux. Ainsi, lorsque la fleur de koroiny auro fleurit, les tortues et les poissons sont gras ; lorsque le bop taulo fleurit, les poissons bikhir, liot et bere sont abondants ; lorsque le loto taulo fleurit, c'est le meilleur moment pour attraper les poissons phiku et nyuri ; et quand le chokhoro taulo fleurissent, les cochons sont les plus gras et c'est le meilleur moment pour les chasser.

Même le "matin" et le "soir" étaient relatifs, selon la personne qui les vivait. Pour dire, par exemple, "Je te rendrai visite demain", on utiliserait ngambikhir, pour "ton demain". Mais dans la phrase "je finirai ça demain", le mot serait tambikhir, "mon demain". Le temps dépendait de la perspective de celui qui était impliqué dans l'événement.

Les mythes des Grands Andamanais indiquaient que leurs premiers ancêtres résidaient dans le ciel, comme dans une autre histoire que Nao Jr. m'a racontée. 

Le premier homme, sortant du creux d'un bambou, trouva de l'eau, des tubercules, de l'argile fine et de la résine. Il modela un pot en argile, alluma un feu avec la résine, fit bouillir les tubercules dans le pot et savoura un repas copieux. Puis il fabriqua une figurine en argile et ll laissa sur le feu. À son étonnement et à sa joie, elle se transforma en femme. Ils eurent beaucoup d'enfants et étaient très heureux. Après un long séjour sur Terre, le couple partit pour un endroit au-dessus des nuages, rompant tous les liens avec ce monde.

Des larmes ont coulé sur les joues de Nao Jr. alors qu'il racontait ce conte de création, qui présentait tous les éléments de la vie : l'eau, le feu, la terre, l'espace et l'air. Pour cet homme solitaire - sa femme l'avait quitté il y a des années pour un autre homme -, créer une partenaire selon ses désirs était la fable romantique ultime. Alors que je lui avais demandé des histoires pour la première fois, il avait dit ne pas en avoir entendu depuis 40 ans et qu'il n'en avait pas pour moi faute de mémoire. Mais au cours de nombreuses soirées, avec le gazouillis des grillons et les cris des grenouilles à l'extérieur, il m'a raconté 10 histoires précieuses, presque inédites pour une langue au bord de l'extinction. Peut-être que l'une des raisons pour lesquelles nous nous sommes tellement liés était que nous étions tous les deux raupuch - quelqu'un qui a perdu un frère ou une sœur. Nao Jr. a été choqué d'apprendre que ni l'anglais ni aucune langue indienne n'a un tel mot. "Pourquoi?" Il a demandé. "n'aimez-vous pas vos frères et soeurs"

Nao Jr. a quitté ce monde en février 2009. Avec cette mort prématurée, il a emporté avec lui un trésor de connaissances qui ne pourra jamais être ressuscité et m'a laissé raupuch à nouveau. Boro Sr. est décédé en novembre et Boa Sr. en janvier 2010, laissant sa voix au travers de plusieurs chansons. Licho est décédé en avril 2020. À l'heure actuelle, seules trois personnes - Peje, Golat et Noe - parlent encore une langue de la grande famille andamanaise, dans leur cas le Jero. Ils ont tous plus de 50 ans et souffrent de diverses affections. Toute la famille de ces langues est menacée d'extinction imminente.

Sur les quelque 7 000 langues parlées par les humains aujourd'hui, la moitié se taira d'ici la fin de ce siècle. La survie à l'ère de la mondialisation, de l'urbanisation et des changements climatiques oblige les communautés autochtones à remplacer leurs modes de vie et leurs langues traditionnels par ceux de la société dominante. Quand l'ancienne génération ne peut plus enseigner la langue aux plus jeunes, une langue est condamnée. Et avec chaque langue perdue, nous perdons une mine de connaissances sur l'existence humaine, la perception, la nature et la survie. Pour donner le dernier mot à Boa Sr. : "Tout est parti, il ne reste plus rien – nos jungles, notre eau, notre peuple, notre langue. Ne laissez pas la langue vous échapper ! Tiens bon !"

Auteur: Anvita Abbi

Info: "Whispers from Deep Time" dans Scientific American 328, 6, 62-69 (juin 2023). Trad et adaptation Mg

[ septénaire ] [ conte mythologique ] [ intraduisible ] [ paléolinguistique ] [ ethnolinguistique ] [ chronos ] [ idiome altruiste ] [ couple ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier cognitif

Des physiciens observent une transition de phase quantique "inobservable"

Mesure et l'intrication ont toutes deux une saveur non locale "étrange". Aujourd'hui, les physiciens exploitent cette nonlocalité pour sonder la diffusion de l'information quantique et la contrôler.

La mesure est l'ennemi de l'intrication. Alors que l'intrication se propage à travers une grille de particules quantiques - comme le montre cette simulation - que se passerait-il si l'on mesurait certaines des particules ici et là ? Quel phénomène triompherait ?

En 1935, Albert Einstein et Erwin Schrödinger, deux des physiciens les plus éminents de l'époque, se disputent sur la nature de la réalité.

Einstein avait fait des calculs et savait que l'univers devait être local, c'est-à-dire qu'aucun événement survenant à un endroit donné ne pouvait affecter instantanément un endroit éloigné. Mais Schrödinger avait fait ses propres calculs et savait qu'au cœur de la mécanique quantique se trouvait une étrange connexion qu'il baptisa "intrication" et qui semblait remettre en cause l'hypothèse de localité d'Einstein.

Lorsque deux particules sont intriquées, ce qui peut se produire lors d'une collision, leurs destins sont liés. En mesurant l'orientation d'une particule, par exemple, on peut apprendre que sa partenaire intriquée (si et quand elle est mesurée) pointe dans la direction opposée, quel que soit l'endroit où elle se trouve. Ainsi, une mesure effectuée à Pékin pourrait sembler affecter instantanément une expérience menée à Brooklyn, violant apparemment l'édit d'Einstein selon lequel aucune influence ne peut voyager plus vite que la lumière.

Einstein n'appréciait pas la portée de l'intrication (qu'il qualifiera plus tard d'"étrange") et critiqua la théorie de la mécanique quantique, alors naissante, comme étant nécessairement incomplète. Schrödinger défendit à son tour la théorie, dont il avait été l'un des pionniers. Mais il comprenait le dégoût d'Einstein pour l'intrication. Il admit que la façon dont elle semble permettre à un expérimentateur de "piloter" une expérience autrement inaccessible est "plutôt gênante".

Depuis, les physiciens se sont largement débarrassés de cette gêne. Ils comprennent aujourd'hui ce qu'Einstein, et peut-être Schrödinger lui-même, avaient négligé : l'intrication n'a pas d'influence à distance. Elle n'a pas le pouvoir de provoquer un résultat spécifique à distance ; elle ne peut distribuer que la connaissance de ce résultat. Les expériences sur l'intrication, telles que celles qui ont remporté le prix Nobel en 2022, sont maintenant devenues monnaie courante.

Au cours des dernières années, une multitude de recherches théoriques et expérimentales ont permis de découvrir une nouvelle facette du phénomène, qui se manifeste non pas par paires, mais par constellations de particules. L'intrication se propage naturellement dans un groupe de particules, établissant un réseau complexe de contingences. Mais si l'on mesure les particules suffisamment souvent, en détruisant l'intrication au passage, il est possible d'empêcher la formation du réseau. En 2018, trois groupes de théoriciens ont montré que ces deux états - réseau ou absence de réseau - rappellent des états familiers de la matière tels que le liquide et le solide. Mais au lieu de marquer une transition entre différentes structures de la matière, le passage entre la toile et l'absence de toile indique un changement dans la structure de l'information.

"Il s'agit d'une transition de phase dans l'information", explique Brian Skinner, de l'université de l'État de l'Ohio, l'un des physiciens qui a identifié le phénomène en premier. "Les propriétés de l'information, c'est-à-dire la manière dont l'information est partagée entre les choses, subissent un changement très brutal.

Plus récemment, un autre trio d'équipes a tenté d'observer cette transition de phase en action. Elles ont réalisé une série de méta-expériences pour mesurer comment les mesures elles-mêmes affectent le flux d'informations. Dans ces expériences, ils ont utilisé des ordinateurs quantiques pour confirmer qu'il est possible d'atteindre un équilibre délicat entre les effets concurrents de l'intrication et de la mesure. La découverte de la transition a lancé une vague de recherches sur ce qui pourrait être possible lorsque l'intrication et la mesure entrent en collision.

L'intrication "peut avoir de nombreuses propriétés différentes, bien au-delà de ce que nous avions imaginé", a déclaré Jedediah Pixley, théoricien de la matière condensée à l'université Rutgers, qui a étudié les variations de la transition.

Un dessert enchevêtré

L'une des collaborations qui a permis de découvrir la transition d'intrication est née autour d'un pudding au caramel collant dans un restaurant d'Oxford, en Angleterre. En avril 2018, Skinner rendait visite à son ami Adam Nahum, un physicien qui travaille actuellement à l'École normale supérieure de Paris. Au fil d'une conversation tentaculaire, ils se sont retrouvés à débattre d'une question fondamentale concernant l'enchevêtrement et l'information.

Tout d'abord, un petit retour en arrière. Pour comprendre le lien entre l'intrication et l'information, imaginons une paire de particules, A et B, chacune dotée d'un spin qui peut être mesuré comme pointant vers le haut ou vers le bas. Chaque particule commence dans une superposition quantique de haut et de bas, ce qui signifie qu'une mesure produit un résultat aléatoire - soit vers le haut, soit vers le bas. Si les particules ne sont pas intriquées, les mesurer revient à jouer à pile ou face : Le fait d'obtenir pile ou face avec l'une ne vous dit rien sur ce qui se passera avec l'autre.

Mais si les particules sont intriquées, les deux résultats seront liés. Si vous trouvez que B pointe vers le haut, par exemple, une mesure de A indiquera qu'il pointe vers le bas. La paire partage une "opposition" qui ne réside pas dans l'un ou l'autre membre, mais entre eux - un soupçon de la non-localité qui a troublé Einstein et Schrödinger. L'une des conséquences de cette opposition est qu'en mesurant une seule particule, on en apprend plus sur l'autre. "La mesure de B m'a d'abord permis d'obtenir des informations sur A", a expliqué M. Skinner. "Cela réduit mon ignorance sur l'état de A."

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, tu mesurais certains spins ici et là ? Si tu les mesurais tous en permanence, l'intrication disparaîtrait de façon ennuyeuse. Mais si tu les mesures sporadiquement, par quelques spins seulement, quel phénomène sortira vainqueur ? L'intrication ou la mesure ?

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, on mesurait certains spins ici et là ? Les mesurer tous en permanence ferait disparaître toute l'intrication d'une manière ennuyeuse. Mais si on en mesure sporadiquement quelques spins seulement, quel phénomène sortirait vainqueur ? L'intrication ou la mesure ?

Skinner, répondit qu'il pensait que la mesure écraserait l'intrication. L'intrication se propage de manière léthargique d'un voisin à l'autre, de sorte qu'elle ne croît que de quelques particules à la fois. Mais une série de mesures pourrait toucher simultanément de nombreuses particules tout au long de la longue chaîne, étouffant ainsi l'intrication sur une multitude de sites. S'ils avaient envisagé cet étrange scénario, de nombreux physiciens auraient probablement convenu que l'intrication ne pouvait pas résister aux mesures.

"Selon Ehud Altman, physicien spécialiste de la matière condensée à l'université de Californie à Berkeley, "il y avait une sorte de folklore selon lequel les états très intriqués sont très fragiles".

Mais Nahum, qui réfléchit à cette question depuis l'année précédente, n'est pas de cet avis. Il imaginait que la chaîne s'étendait dans le futur, instant après instant, pour former une sorte de clôture à mailles losangées. Les nœuds étaient les particules, et les connexions entre elles représentaient les liens à travers lesquels l'enchevêtrement pouvait se former. Les mesures coupant les liens à des endroits aléatoires. Si l'on coupe suffisamment de maillons, la clôture s'écroule. L'intrication ne peut pas se propager. Mais jusque là, selon Nahum, même une clôture en lambeaux devrait permettre à l'intrication de se propager largement.

Nahum a réussi à transformer un problème concernant une occurrence quantique éphémère en une question concrète concernant une clôture à mailles losangées. Il se trouve qu'il s'agit d'un problème bien étudié dans certains cercles - la "grille de résistance vandalisée" - et que Skinner avait étudié lors de son premier cours de physique de premier cycle, lorsque son professeur l'avait présenté au cours d'une digression.

"C'est à ce moment-là que j'ai été vraiment enthousiasmé", a déclaré M. Skinner. "Il n'y a pas d'autre moyen de rendre un physicien plus heureux que de montrer qu'un problème qui semble difficile est en fait équivalent à un problème que l'on sait déjà résoudre."

Suivre l'enchevêtrement

Mais leurs plaisanteries au dessert n'étaient rien d'autre que des plaisanteries. Pour tester et développer rigoureusement ces idées, Skinner et Nahum ont joint leurs forces à celles d'un troisième collaborateur, Jonathan Ruhman, de l'université Bar-Ilan en Israël. L'équipe a simulé numériquement les effets de la coupe de maillons à différentes vitesses dans des clôtures à mailles losangées. Ils ont ensuite comparé ces simulations de réseaux classiques avec des simulations plus précises mais plus difficiles de particules quantiques réelles, afin de s'assurer que l'analogie était valable. Ils ont progressé lentement mais sûrement.

Puis, au cours de l'été 2018, ils ont appris qu'ils n'étaient pas les seuls à réfléchir aux mesures et à l'intrication.

Matthew Fisher, éminent physicien de la matière condensée à l'université de Californie à Santa Barbara, s'était demandé si l'intrication entre les molécules dans le cerveau pouvait jouer un rôle dans notre façon de penser. Dans le modèle que lui et ses collaborateurs étaient en train de développer, certaines molécules se lient occasionnellement d'une manière qui agit comme une mesure et tue l'intrication. Ensuite, les molécules liées changent de forme d'une manière qui pourrait créer un enchevêtrement. Fisher voulait savoir si l'intrication pouvait se développer sous la pression de mesures intermittentes - la même question que Nahum s'était posée.

"C'était nouveau", a déclaré M. Fisher. "Personne ne s'était penché sur cette question avant 2018.

Dans le cadre d'une coopération universitaire, les deux groupes ont coordonné leurs publications de recherche l'un avec l'autre et avec une troisième équipe étudiant le même problème, dirigée par Graeme Smith de l'université du Colorado, à Boulder.

"Nous avons tous travaillé en parallèle pour publier nos articles en même temps", a déclaré M. Skinner.

En août, les trois groupes ont dévoilé leurs résultats. L'équipe de Smith était initialement en désaccord avec les deux autres, qui soutenaient tous deux le raisonnement de Nahum inspiré de la clôture : Dans un premier temps, l'intrication a dépassé les taux de mesure modestes pour se répandre dans une chaîne de particules, ce qui a entraîné une entropie d'intrication élevée. Puis, lorsque les chercheurs ont augmenté les mesures au-delà d'un taux "critique", l'intrication s'est arrêtée - l'entropie d'intrication a chuté.

La transition semblait exister, mais il n'était pas évident pour tout le monde de comprendre où l'argument intuitif - selon lequel l'intrication de voisin à voisin devait être anéantie par les éclairs généralisés de la mesure - s'était trompé.

Dans les mois qui ont suivi, Altman et ses collaborateurs à Berkeley ont découvert une faille subtile dans le raisonnement. "On ne tient pas compte de la diffusion (spread) de l'information", a déclaré M. Altman.

Le groupe d'Altman a souligné que toutes les mesures ne sont pas très informatives, et donc très efficaces pour détruire l'intrication. En effet, les interactions aléatoires entre les particules de la chaîne ne se limitent pas à l'enchevêtrement. Elles compliquent également considérablement l'état de la chaîne au fil du temps, diffusant effectivement ses informations "comme un nuage", a déclaré M. Altman. Au bout du compte, chaque particule connaît l'ensemble de la chaîne, mais la quantité d'informations dont elle dispose est minuscule. C'est pourquoi, a-t-il ajouté, "la quantité d'intrication que l'on peut détruire [à chaque mesure] est ridiculement faible".

En mars 2019, le groupe d'Altman a publié une prépublication détaillant comment la chaîne cachait efficacement les informations des mesures et permettait à une grande partie de l'intrication de la chaîne d'échapper à la destruction. À peu près au même moment, le groupe de Smith a mis à jour ses conclusions, mettant les quatre groupes d'accord.

La réponse à la question de Nahum était claire. Une "transition de phase induite par la mesure" était théoriquement possible. Mais contrairement à une transition de phase tangible, telle que le durcissement de l'eau en glace, il s'agissait d'une transition entre des phases d'information - une phase où l'information reste répartie en toute sécurité entre les particules et une phase où elle est détruite par des mesures répétées.

C'est en quelque sorte ce que l'on rêve de faire dans la matière condensée, a déclaré M. Skinner, à savoir trouver une transition entre différents états. "Maintenant, on se demande comment on le voit", a-t-il poursuivi.

 Au cours des quatre années suivantes, trois groupes d'expérimentateurs ont détecté des signes du flux distinct d'informations.

Trois façons de voir l'invisible

Même l'expérience la plus simple permettant de détecter la transition intangible est extrêmement difficile. "D'un point de vue pratique, cela semble impossible", a déclaré M. Altman.

L'objectif est de définir un certain taux de mesure (rare, moyen ou fréquent), de laisser ces mesures se battre avec l'intrication pendant un certain temps et de voir quelle quantité d'entropie d'intrication vous obtenez dans l'état final. Ensuite, rincez et répétez avec d'autres taux de mesure et voyez comment la quantité d'intrication change. C'est un peu comme si l'on augmentait la température pour voir comment la structure d'un glaçon change.

Mais les mathématiques punitives de la prolifération exponentielle des possibilités rendent cette expérience presque impensablement difficile à réaliser.

L'entropie d'intrication n'est pas, à proprement parler, quelque chose que l'on peut observer. C'est un nombre que l'on déduit par la répétition, de la même manière que l'on peut éventuellement déterminer la pondération d'un dé chargé. Lancer un seul 3 ne vous apprend rien. Mais après avoir lancé le dé des centaines de fois, vous pouvez connaître la probabilité d'obtenir chaque chiffre. De même, le fait qu'une particule pointe vers le haut et une autre vers le bas ne signifie pas qu'elles sont intriquées. Il faudrait obtenir le résultat inverse plusieurs fois pour en être sûr.

Il est beaucoup plus difficile de déduire l'entropie d'intrication d'une chaîne de particules mesurées. L'état final de la chaîne dépend de son histoire expérimentale, c'est-à-dire du fait que chaque mesure intermédiaire a abouti à une rotation vers le haut ou vers le bas. Pour accumuler plusieurs copies du même état, l'expérimentateur doit donc répéter l'expérience encore et encore jusqu'à ce qu'il obtienne la même séquence de mesures intermédiaires, un peu comme s'il jouait à pile ou face jusqu'à ce qu'il obtienne une série de "têtes" d'affilée. Chaque mesure supplémentaire rend l'effort deux fois plus difficile. Si vous effectuez 10 mesures lors de la préparation d'une chaîne de particules, par exemple, vous devrez effectuer 210 ou 1 024 expériences supplémentaires pour obtenir le même état final une deuxième fois (et vous pourriez avoir besoin de 1 000 copies supplémentaires de cet état pour déterminer son entropie d'enchevêtrement). Il faudra ensuite modifier le taux de mesure et recommencer.

L'extrême difficulté à détecter la transition de phase a amené certains physiciens à se demander si elle était réellement réelle.

"Vous vous fiez à quelque chose d'exponentiellement improbable pour le voir", a déclaré Crystal Noel, physicienne à l'université Duke. "Cela soulève donc la question de savoir ce que cela signifie physiquement."

Noel a passé près de deux ans à réfléchir aux phases induites par les mesures. Elle faisait partie d'une équipe travaillant sur un nouvel ordinateur quantique à ions piégés à l'université du Maryland. Le processeur contenait des qubits, des objets quantiques qui agissent comme des particules. Ils peuvent être programmés pour créer un enchevêtrement par le biais d'interactions aléatoires. Et l'appareil pouvait mesurer ses qubits.

Le groupe a également eu recours à une deuxième astuce pour réduire le nombre de répétitions - une procédure technique qui revient à simuler numériquement l'expérience parallèlement à sa réalisation. Ils savaient ainsi à quoi s'attendre. C'était comme si on leur disait à l'avance comment le dé chargé était pondéré, et cela a permis de réduire le nombre de répétitions nécessaires pour mettre au point la structure invisible de l'enchevêtrement.

Grâce à ces deux astuces, ils ont pu détecter la transition d'intrication dans des chaînes de 13 qubits et ont publié leurs résultats à l'été 2021.

"Nous avons été stupéfaits", a déclaré M. Nahum. "Je ne pensais pas que cela se produirait aussi rapidement."

À l'insu de Nahum et de Noel, une exécution complète de la version originale de l'expérience, exponentiellement plus difficile, était déjà en cours.

À la même époque, IBM venait de mettre à niveau ses ordinateurs quantiques, ce qui leur permettait d'effectuer des mesures relativement rapides et fiables des qubits à la volée. Jin Ming Koh, étudiant de premier cycle à l'Institut de technologie de Californie, avait fait une présentation interne aux chercheurs d'IBM et les avait convaincus de participer à un projet visant à repousser les limites de cette nouvelle fonctionnalité. Sous la supervision d'Austin Minnich, physicien appliqué au Caltech, l'équipe a entrepris de détecter directement la transition de phase dans un effort que Skinner qualifie d'"héroïque".

 Après avoir demandé conseil à l'équipe de Noel, le groupe a simplement lancé les dés métaphoriques un nombre suffisant de fois pour déterminer la structure d'intrication de chaque historique de mesure possible pour des chaînes comptant jusqu'à 14 qubits. Ils ont constaté que lorsque les mesures étaient rares, l'entropie d'intrication doublait lorsqu'ils doublaient le nombre de qubits - une signature claire de l'intrication qui remplit la chaîne. Les chaînes les plus longues (qui impliquaient davantage de mesures) ont nécessité plus de 1,5 million d'exécutions sur les appareils d'IBM et, au total, les processeurs de l'entreprise ont fonctionné pendant sept mois. Il s'agit de l'une des tâches les plus intensives en termes de calcul jamais réalisées à l'aide d'ordinateurs quantiques.

Le groupe de M. Minnich a publié sa réalisation des deux phases en mars 2022, ce qui a permis de dissiper tous les doutes qui subsistaient quant à la possibilité de mesurer le phénomène.

"Ils ont vraiment procédé par force brute", a déclaré M. Noel, et ont prouvé que "pour les systèmes de petite taille, c'est faisable".

Récemment, une équipe de physiciens a collaboré avec Google pour aller encore plus loin, en étudiant l'équivalent d'une chaîne presque deux fois plus longue que les deux précédentes. Vedika Khemani, de l'université de Stanford, et Matteo Ippoliti, aujourd'hui à l'université du Texas à Austin, avaient déjà utilisé le processeur quantique de Google en 2021 pour créer un cristal de temps, qui, comme les phases de propagation de l'intrication, est une phase exotique existant dans un système changeant.

En collaboration avec une vaste équipe de chercheurs, le duo a repris les deux astuces mises au point par le groupe de Noel et y a ajouté un nouvel ingrédient : le temps. L'équation de Schrödinger relie le passé d'une particule à son avenir, mais la mesure rompt ce lien. Ou, comme le dit Khemani, "une fois que l'on introduit des mesures dans un système, cette flèche du temps est complètement détruite".

Sans flèche du temps claire, le groupe a pu réorienter la clôture à mailles losangiques de Nahum pour accéder à différents qubits à différents moments, ce qu'ils ont utilisé de manière avantageuse. Ils ont notamment découvert une transition de phase dans un système équivalent à une chaîne d'environ 24 qubits, qu'ils ont décrite dans un article publié en mars.

Puissance de la mesure

Le débat de Skinner et Nahum sur le pudding, ainsi que les travaux de Fisher et Smith, ont donné naissance à un nouveau sous-domaine parmi les physiciens qui s'intéressent à la mesure, à l'information et à l'enchevêtrement. Au cœur de ces différentes lignes de recherche se trouve une prise de conscience croissante du fait que les mesures ne se contentent pas de recueillir des informations. Ce sont des événements physiques qui peuvent générer des phénomènes véritablement nouveaux.

"Les mesures ne sont pas un sujet auquel les physiciens de la matière condensée ont pensé historiquement", a déclaré M. Fisher. Nous effectuons des mesures pour recueillir des informations à la fin d'une expérience, a-t-il poursuivi, mais pas pour manipuler un système.

En particulier, les mesures peuvent produire des résultats inhabituels parce qu'elles peuvent avoir le même type de saveur "partout-tout-enmême-temps" qui a autrefois troublé Einstein. Au moment de la mesure, les possibilités alternatives contenues dans l'état quantique s'évanouissent, pour ne jamais se réaliser, y compris celles qui concernent des endroits très éloignés dans l'univers. Si la non-localité de la mécanique quantique ne permet pas des transmissions plus rapides que la lumière comme le craignait Einstein, elle permet d'autres exploits surprenants.

"Les gens sont intrigués par le type de nouveaux phénomènes collectifs qui peuvent être induits par ces effets non locaux des mesures", a déclaré M. Altman.

L'enchevêtrement d'une collection de nombreuses particules, par exemple, a longtemps été considéré comme nécessitant au moins autant d'étapes que le nombre de particules que l'on souhaitait enchevêtrer. Mais l'hiver dernier, des théoriciens ont décrit un moyen d'y parvenir en beaucoup moins d'étapes grâce à des mesures judicieuses. Au début de l'année, le même groupe a mis l'idée en pratique et façonné une tapisserie d'enchevêtrement abritant des particules légendaires qui se souviennent de leur passé. D'autres équipes étudient d'autres façons d'utiliser les mesures pour renforcer les états intriqués de la matière quantique.

Cette explosion d'intérêt a complètement surpris Skinner, qui s'est récemment rendu à Pékin pour recevoir un prix pour ses travaux dans le Grand Hall du Peuple sur la place Tiananmen. (Skinner avait d'abord cru que la question de Nahum n'était qu'un exercice mental, mais aujourd'hui, il n'est plus très sûr de la direction que tout cela prend.)

"Je pensais qu'il s'agissait d'un jeu amusant auquel nous jouions, mais je ne suis plus prêt à parier sur l'idée qu'il n'est pas utile."

Auteur: Internet

Info: Quanta Magazine, Paul Chaikin, sept 2023

[ passage inversant ] [ esprit-matière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste