Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 120
Temps de recherche: 0.0628s

déconnexion

La mort telle qu'elle n'avait jamais été vue
L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel? Cela, l'étude ne le dit pas.
Une expérience réalisée dans une université berlinoise a permis de visualiser ce qui se passait dans le cerveau d'un mourant au moment fatidique. Et les résultats, inédits, sont étonnants. Cérébralement parlant, la mort est moins une extinction qu'un ultime embrasement électrique.
C'est la grande, la fatidique question : que se passe-t-il dans notre cerveau - et donc dans notre esprit, dans notre conscience - à la minute de notre mort ? La réponse, jusqu'ici, paraissait hors d'atteinte de l'investigation scientifique : personne n'est jamais revenu de l'autre rive pour témoigner de ce qu'il avait vu et ressenti au moment de passer de vie à trépas.

Certes, il y a bien ces récits troublants recueillis sur les lèvres de celles et ceux qui ont frôlé la mort de près. Regroupés sous l'appellation d'"expériences de mort imminente" (EMI), ils sont pris très au sérieux par une partie de la communauté des neuroscientifiques qui les répertorie et les décortique, comme le fait l'équipe du Coma Science Group à l'université de Liège (lire ci-dessous).

Mais, par définition, les survivants dont l'expérience a été reconnue comme authentique EMI après évaluation sur l'échelle de Greyson (du nom du psychiatre américain Bruce Greyson, qui l'a proposée en 1983) ont échappé à la mort. Ils n'en ont vu que l'ombre. La mort elle-même et ce qu'elle provoque dans le cerveau du mourant demeurent entièrement nimbés de mystère. Du moins était-ce le cas jusqu'à cette année...

Dans une étude publiée par la revue "Annals of Neurology" qui a fait sensation - et qui fera sans doute date dans l'histoire encore toute récente de la thanatologie -, le professeur en neurologie expérimentale à l'université Charité de Berlin, Jens Dreier, détaille l'expérience extraordinaire à laquelle son équipe et lui se sont livrés sur neuf patients. Ces neuf personnes, toutes entrées en soins intensifs à la suite de blessures cérébrales, faisaient l'objet d'un monitorage neurologique lourd, plus invasif qu'un simple électroencéphalogramme.

"Il s'agit d'une technique non conventionnelle, qui permet d'enregistrer l'activité électrique du cerveau, y compris à de très basses fréquences, de l'ordre de 0,01 hertz", explique Stéphane Marinesco, responsable du Centre de recherche en neurosciences de Lyon. Les basses fréquences émises par le cerveau ont du mal à traverser le scalp, ce qui les rend indétectables aux appareils d'électroencéphalogramme dont les électrodes sont placées sur le cuir chevelu. Dans le système de monitorage dont étaient équipés les patients du service du Pr Dreier, les électrodes étaient placées à l'intérieur du crâne, et même sous la dure-mère, cette membrane rigide qui entoure le cerveau et la moelle épinière.

Le cerveau, un vaste mystère qui reste à élucider
Cet accès aux très basses fréquences, correspondant à une activité électrique lente, a été la fenêtre qui a permis à Jens Dreier et son équipe de visualiser ce qui se passait dans le cerveau de personnes en train de mourir. Pour leur expérience, les neuroscientifiques allemands ont simplement demandé aux familles, une fois devenu évident que le patient ne survivrait pas à son accident, l'autorisation de poursuivre l'enregistrement jusqu'au bout. Et même un peu au-delà du "bout", c'est-à-dire de la mort cérébrale, ce moment à partir duquel un classique électroencéphalogramme n'enregistre plus aucune activité cérébrale et que l'Organisation mondiale de la santé considère comme le critère médico-légal du décès.

Vague de dépolarisation
Qu'ont montré les enregistrements réalisés à la Charité de Berlin ? Quelque chose de tout à fait fascinant, jusque-là inédit, et qui devrait peut-être amener les spécialistes à reconsidérer leur définition du décès et de son moment exact. Ce phénomène cérébral, indique l'étude, survient entre 2 et 5 minutes après l'ischémie, moment où les organes (dont le cerveau) ne sont plus alimentés en sang et donc en oxygène. Et il dure lui-même une petite dizaine de minutes. On peut l'assimiler à une sorte d'incendie électrique qui s'allume à un bout du cerveau et, de là, se propage à la vitesse de 50 microns par seconde dans tout l'encéphale avant de s'éteindre à l'autre bout, son oeuvre de destruction accomplie. Les neuroscientifiques parlent de "vague de dépolarisation".

Pour maintenir le "potentiel de membrane" qui lui permet de communiquer avec ses voisins sous forme d'influx nerveux, un neurone a besoin d'énergie. Et donc d'être irrigué en permanence par le sang venu des artères qui lui apporte l'oxygène indispensable à la production de cette énergie sous forme d'adénosine triphosphate (ATP). Tout le travail de Jens Dreier a consisté à observer ce qui se passait pour les neurones une fois que, le coeur ayant cessé de battre et la pression artérielle étant tombée à zéro, ils n'étaient plus alimentés en oxygène.

"L'étude a montré que les neurones se mettaient alors en mode 'économie d'énergie'", commente Stéphane Marinesco. Pendant les 2 à 5 minutes séparant l'ischémie de l'apparition de la vague de dépolarisation, ils puisent dans leurs réserves d'ATP pour maintenir leur potentiel de membrane. Pendant cette phase intermédiaire, au cours de laquelle le cerveau est littéralement entre la vie et la mort, celui-ci ne subit encore aucune lésion irréversible : si l'apport en oxygène venait à être rétabli, il pourrait se remettre à fonctionner sans dommages majeurs.

Réaction en chaîne
Mais cette résistance héroïque des cellules nerveuses a ses limites. A un moment donné, en l'un ou l'autre endroit du cerveau, un premier neurone "craque", c'est-à-dire qu'il dépolarise. Les stocks de potassium qui lui permettaient de maintenir son potentiel de membrane étant devenus inutiles, il les largue dans le milieu extra-cellulaire. Il agit de même avec ses stocks de glutamate, le principal neurotransmetteur excitateur du cerveau.

Mais, ce faisant, ce premier neurone initie une redoutable réaction en chaîne : le potassium et le glutamate par lui libérés atteignent un neurone voisin dont ils provoquent aussitôt la dépolarisation ; à son tour, ce deuxième neurone relâche ses stocks et provoque la dépolarisation d'un troisième, etc. Ainsi apparaît et se propage la vague de dépolarisation, correspondant à l'activité électrique lente enregistrée par le système de monitorage spécifique utilisé à la Charité de Berlin. Le "bouquet final" du cerveau sur le point de s'éteindre définitivement.

Il est d'autres circonstances de la vie où l'on observe des vagues de dépolarisation, un peu différentes en ceci qu'elles ne sont pas, comme ici, irréversibles. C'est notamment le cas dans les migraines avec aura, naguère appelées migraines ophtalmiques, car elles s'accompagnent de symptômes visuels qui peuvent être de simples distorsions du champ visuel, mais aussi, parfois, l'apparition de taches lumineuses, voire de véritables hallucinations assez similaires à celles rapportées dans les EMI.

L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel ? Cela, l'étude ne le dit pas. Mais l'hypothèse ne paraît pas indéfendable. ,

Auteur: Verdo Yann

Info: Les échos.fr, 25/11 à 17:23

[ cessation ] [ disparition ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

La  " marchandisation du sexe ", un concept pauvre

Condamnant le puritanisme des personnes qui assimilent les rencontres en ligne à un " marché sexuel ", le philosophe Richard Mèmeteau attaque : on ne va pas sur un site pour " acheter " de la " marchandise ", mais pour " jouer ". Jouer à quoi ?

Le 20 février 2016, l’animateur Thierry Ardisson invite une sexologue catholique, Thérèse Hargot, dans l’émission Salut les Terriens pour discuter, entre autres, des sex friends. Faussement ingénu, il met en cause les gays : "J’ai l’impression, moi, que c’est la sexualité des homosexuels qui a imprégné la sexualité des hétérosexuels. On a tous des potes homosexuels : pour eux, un coup pour un soir, ce n’est pas grave. Et maintenant c’est un peu pareil partout. C’est-à-dire que, chez les hétéros, y’a : “On baise sans sentiments, juste pour le plaisir de baiser. Thérèse Hargot, qui refuse de mordre à cet hameçon-là, préfère répondre : " Ce qui me gêne, c’est qu’à un moment on est dans l’instrumentalisation du corps de l’autre. Ce qui me gêne, c’est qu’on regarde l’autre comme un objet, et un objet sexuel. On n’est pas un objet, on est une personne humaine. Et là du coup y’a une atteinte à sa dignité."

Faire de l’autre un objet de désir : atteinte à la dignité ?

Dans un essai intitulé Sex Friends (Zone, 2019),

Richard Mèmeteau –professeur de philosophie et auteur de Pop culture (Zones, 2014) –, relate l'échange avec ironie : la sexologue a fait " claquer le concept kantien de dignité pile au bon moment ", dit-il. Dieu merci, grâce à elle, l'ordre moral est restauré. Mais n'est-il pas caricatural d'opposer strictement le plan cul à l'amour ?  Aujourd'hui, une partie significative des unions commence sur Internet, raconte la sociologue Marie Bergström (Les nouvelles lois de l'amour). Les changements intervenus dans la sexualité ne se réduisent pas à ce que les théories d'un libre marché pourraient en dire. Richard Mèmeteau défend lui aussi l'idée qu'on peut très bien apprécier et respecter quelqu'un avec qui on baise. Le sexe plan Q " zéro sentiment " ? Il n'y croit pas vraiment. " La sexualité se trouve toujours dans un entre-deux ".

La marchandisation du sexe : " une chimère "

S'appuyant sur l'idée qu'il existe un " continuum moral " entre l'amour sans sexe et le coït sans âme, le philosophe attaque. Il s'en prend tout d'abord aux concepteurs de dating app. Le site Adopteunmec, par exemple, " affiche un pictogramme où l'on voit un homme tomber dans un caddie poussé par une femme. " A priori, l'idée est bonne. En plantant un décor de supermarché autour des rencontres sexuelles, il s'agit de les dédramatiser : " on dépotentialise leurs enjeux moraux et on décomplexe les femmes qui seraient autrement réticentes à s'abonner à ce genre de sites : vous n'êtes pas des marchandises, mais des consommatrices. " Problème. Est-il valorisant pour une femme de traiter les hommes comme des produits en promotion ? Le seul et unique pouvoir qu'une femme puisse assumer est-il le " pouvoir d'achat " ? N'est-il pas énervant pour une femme d'être sans cesse assimilée à une obsédée… de shopping ?

Hypermarché de la drague " : une métaphore éculée

La métaphore marketing du supermarché est non seulement insultante pour l'esprit mais terriblement rabaissante pour les utilisateurs (hommes et femmes) du site. Le pire, c'est qu'elle conforte l'opinion négative qu'on peut avoir de la rencontre en ligne, assimilée à un " marché de la drague, miroir de notre consumérisme ". Richard Mèmeteau veut en finir avec cette croyance : " nous devrions être réticents à nous approprier cette rhétorique du marché. Contrairement à un marché, le choix de l'objet érotique ou amoureux n'est jamais unilatéral. L'autre n'est pas une tranche de jambon qu'on choisit chez le boucher. Il faut désirer, certes, mais aussi être désiré en retour. " La personne que l'on choisit sur un site peut très bien rejeter votre invitation. La rencontre n'est possible qu'à condition de se présenter et de séduire.

Il faut être deux pour danser le tango

Il est absurde d'assimiler les sexfriends à des " marchandises ". Pour Richard Mèmeteau, l'usage du lexique économique trahit une forme de " pauvreté intellectuelle ", car la réalité –dit-il– c'est que la drague en ligne ressemble beaucoup plus à un jeu vidéo en multijoueur qu'à un geste d'achat. D'abord, il faut s'identifier, ce qui revient à créer une sorte d'avatar, tout en sachant qu'un gros mensonge ne peut jamais vous mener très loin : " la rencontre réelle est le moment qui conditionne la vérité des échanges en ligne. Et elle arrive très vite. Un tiers des couples qui se sont formés sur les réseaux se sont vus après une semaine et deux tiers dans le mois. On pourrait être tenté de mentir dans la phase qui précède, de s'enjoliver pour permettre la rencontre, mais à quoi bon si celle-ci dévoile la supercherie ? ". Il s'agit donc de séduire, sans trop mentir. Tout un art.

On ne dialogue pas avec son jambon

Après avoir créé son profil, il faut –comme au théâtre– engager le dialogue. Or le dialogue suppose du talent. " Chaque geste ou dévoilement implique sa réciproque de la part de l'interlocuteur. On avance en coopérant, tour par tour, message par message. On veut savoir qui montre quelle envie, dévoile quelle photo, affiche quelle intention. " Bien sûr, cet univers de séduction repose en grande partie sur des enjeux sociaux : chacun cherche à obtenir un-e partenaire valorisant-e. " Les filles attendent notamment que les garçons aient accès à une voiture, qu'ils soient capables de dépenser de l'argent pour elles. Les femmes sont ainsi souvent accusées par leurs prétendants de jouer les gold diggers (chercheuses d'or) en se faisant inviter par des garçons. Mais ces éléments ne sont pas suffisants. " Les filles attendent surtout des garçons qu'ils soient populaires, beaux, gentils, cultivés et/ou qu'ils aient de la classe. Quand aux garçons, ils ont aussi des exigences, souvent similaires.

Séduire en ligne, tout un art

Les conditions à remplir pour être séduisant-e font l'objet d'un arbitrage complexe, non-réductible à la simple logique de la transaction économique. Les femmes ne cherchent pas forcément un homme riche, ni un faire-valoir symbolique, ni un mari protecteur. " Personne ne sait de façon objective qui est réellement intéressé par qui. Le jeu et la circulation de l'information ne sont pas aussi transparents qu'un marché ne le supposerait pour pouvoir établir une valeur d'échange. Les informations manqueront toujours pour pratiquer une séduction rationnelle. " Pour évaluer les personnes à qui on a affaire, les critères de classement sont établis sur une échelle de valeur parfaitement normative bien sûr, mais cette norme est brouillée par des stratégies qui consistent, notamment, à refuser tout investissement émotionnel.

Coup de foudre, coup de cul

Beaucoup de " joueurs " (hommes et femmes) affirment ou feignent ne rien vouloir d'autre qu'un " plan cul "… Même si le plan cul en question n'exclut pas l'espoir de s'attacher. " Il s'agit moins d'un modèle économique que d'un principe de pouvoir, conclut Richard Mèmeteau. En réalité, le dating a produit un jeu culturel qui a brouillé les effets de domination économique et les a fait passer au second plan. " Ce qui gouverne les relations maintenant (qu'elles soient sexuelles ou romantiques), ce n'est tant la logique mercantile que les règles d'un jeu délicat qui consiste à se chercher l'un l'autre – à l'aveugle –  pour faire avancer la partie à deux. Ces nouveaux scripts de rencontre présentent ceci de spécifique qu'ils dépassent le système classique d'opposition sexe/amour, donnant naissance à une forme inédite d'appariement : l'amitié sexuelle ?

Auteur: Giard Agnès

Info: Blog "Les 400 culs" 23 décembre 2019

[ libido ] [ ludiques ]

 

Commentaires: 0

Ajouté à la BD par prof gaillard

physique fondamentale

On m’a dit que je gaspillais mon temps 

Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et ­l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.

AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?

AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.

Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particuleAinsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.

Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.

AA - Et qu’appelle-t-on deuxième révolution quantique ?

AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.

Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.

AM - Comment a-t-on validé ce phénomène "d’intrication" ?

AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.

AM - Quelles expériences ont été réalisées pour établir cette intrication ?

AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.

Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.

AM - D’où vient votre passion pour la physique ?

Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.

Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.

AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?

AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.

On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.

On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche ­désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.



 

Auteur: Aspect Alain

Info: Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022

[ nano-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

religions

Luther était-il antisémite ?
Paru en 1543, "Des Juifs et de leurs mensonges" est traduit pour la première fois en français. Le texte, resté jusqu'à présent inédit en français, est un brûlot contre les Juifs, alors que le fondateur de la Réforme avait d'abord pris leur défense. Comment expliquer ce revirement? Et quelles en furent les conséquences?
- BibliObs. L'antisémitisme de Luther est régulièrement évoqué, mais on ne disposait pas en France de la traduction de son principal libelle sur le sujet: "Des juifs et de leurs mensonges". Qu'y a-t-il exactement dans ce texte?
- Pierre Savy. Comme l'indique le titre du livre, il s'agit de dénoncer les "mensonges" des Juifs, à commencer par le mensonge le plus scandaleux aux yeux de Luther, car il porte sur le trésor précieux entre tous que les Juifs ont reçu de Dieu: la Bible. La tradition chrétienne affirme, en tout cas jusqu'au XXe siècle, que la lecture juive de la Bible juive (l'"Ancien Testament") est fausse parce que, plus ou moins délibérément, elle refuse la lecture christologique de la Bible, qui permet de voir dans ces textes l'annonce de la venue de Jésus comme messie.
C'est donc un livre contre le judaïsme et "contre les Juifs", sans aucun doute, mais il n'est pas adressé aux Juifs: Luther met en garde les "Allemands", c'est-à-dire les chrétiens de son temps, contre une politique de tolérance à l'égard des communautés juives.
Il dénonce les "vantardises" des Juifs (leur lignage, le lien qu'ils entendent instaurer avec Dieu par la circoncision, la détention de la Loi et leur droit sur une terre) et s'efforce par un travail exégétique d'établir le caractère messianique de Jésus. Il expose les soi-disant "calomnies" juives sur Jésus et Marie, colportant au passage diverses superstitions médiévales, par exemple les crimes rituels prétendument perpétrés par les Juifs.
Dans la dernière partie du volume, la plus souvent citée, il appelle à faire cesser les agissements condamnables des Juifs: l'usure, qui vide le pays de ses richesses, le blasphème, les nuisances diverses. Pour cela, il prône une politique d'éradication violente (il conseille ainsi à de nombreuses reprises d'incendier les synagogues), voire l'expulsion, même si ce mot n'est pas présent dans le livre de Luther : "Il faut que nous soyons séparés d'eux et
- Dans quel contexte Luther en vient-il à écrire de telles choses?
- Le livre est publié en 1543, trois ans avant la mort du réformateur. On est loin des débuts flamboyants de sa vie: il avait publié les fameuses "thèses" qui avaient lancé la Réforme en 1517, et ses plus grands textes dans les années 1520. "Des Juifs et de leurs mensonges" s'inscrit dans les années de consolidation et de structuration par Luther d'une Église et d'une société protestantes.
Ce sont aussi des années d'inquiétude face à l'apparition de déviances internes à la Réforme, comme les anabaptistes ou les sabbatariens, qui ont poussé la relecture de l'Ancien Testament jusqu'à observer, par exemple, le repos du shabbat. Ces sectes, dont l'Église de Dieu et l'Église adventiste du Septième jour sont les héritières contemporaines, Luther les considère comme "judaïsantes".
Au même moment, la saison des expulsions des Juifs d'Europe occidentale s'achève: il n'y en reste plus guère, sinon dans les ghettos d'Italie et dans quelques localités du monde germanique. Ce traité et deux autres non moins anti-judaïques de la même année 1543, "Du nom ineffable et de la lignée du Christ" et "Des dernières paroles de David", illustrent ce que la plupart des biographes a décrit comme un revirement dans l'attitude de Luther à l'égard des Juifs.
D'abord plutôt bienveillant envers eux et convaincu de sa capacité de les convertir (il écrit "Que Jésus-Christ est né juif" en 1523, un traité autrement plus sympathique que "Des Juifs et de leurs mensonges"), il s'oppose aux persécutions dont ils sont l'objet. Il est même accusé de "judaïser". Mais son objectif reste la conversion et il finit par en rabattre, déçu qu'il est par leur obstination dans leur foi. En vieillissant, il développe une haine obsessionnelle contre les Juifs, il parle souvent d'eux dans ses "Propos de table" et, trois jours avant de mourir, il prêche encore contre eux.
- Quelle est la place de cet antisémitisme dans la pensée de Luther?
- On pourrait répondre en faisant valoir que, matériellement, les pages antisémites de Luther constituent une part réduite de son oeuvre, il est vrai très abondante; et qu'elles ne sont pas plus violentes que celles où il vise d'autres groupes qui font eux aussi l'objet de sa haine ("papistes", princes, fanatiques, Turcs, etc.). Mais cela ne répond pas vraiment sur le fond.
On pourrait répondre aussi, et ce serait déjà un peu plus convaincant, qu'un luthéranisme sans antisémitisme est bien possible: des millions de luthériens en donnent l'exemple chaque jour. L'antisémitisme n'est donc pas central dans l'édifice théologique luthérien. Néanmoins, les choses sont plus compliquées: sans être inexpugnable, l'hostilité au judaïsme se niche profondément dans la pensée de Luther.
Comme les catholiques de son temps, Luther considère comme une infâme déformation rabbinique l'idée d'une Loi orale (le Talmud) comme pendant indispensable de la Loi écrite. Comme eux encore, il campe sur des positions prosélytes et, partant, potentiellement, intolérantes. Comme eux enfin, il manie de lourds arguments théologiques contre les Juifs s'obstinant à rester juifs (caducité de l'Alliance, annonce de Jésus comme Messie, etc.).
Mais, en tant que fondateur du protestantisme, son conflit avec le judaïsme se noue plus spécifiquement autour de la question chrétienne du salut. Pour les catholiques, je suis sauvé par mes "oeuvres", c'est-à-dire mes bonnes actions. C'est le fondement théologique de l'activité caritative de la papauté, qui permet d'acheter son salut à coups de donations, de messes, d'indulgences.
Au contraire, Luther, en s'appuyant notamment sur Paul, développe une théologie de la grâce, qui inverse le lien de causalit : l'amour de Dieu m'est donné sans condition, et c'est précisément ce qui doit m'inciter à agir de façon charitable. Or, dans "Des Juifs et de leurs mensonges", Luther range les Juifs du côté des catholiques, en quoi il se trompe, car la perspective juive se soucie en réalité fort peu du salut et de la rédemption. Cette critique contre le judaïsme est forte: s'agit-il cependant d'antisémitisme? Je ne le crois pas.
Le problème se niche peut-être plutôt dans cette capacité de violence et de colère du réformateur, dans sa véhémente affirmation d'une parole persuadée de détenir la vérité et de devoir abolir l'erreur. Concernant les Juifs, cela conduit Luther à remettre en cause les équilibres anciens trouvés par l'Église romaine et, plus généralement, à attaquer la tradition de tolérance (avec toutes les ambiguïtés de ce mot) de l'Occident, qui, depuis plus de mille ans, puisait à la fois au droit romain, à la politique des papes et aux principaux textes chrétiens.
À côté de désaccords théologiques, par exemple sur les oeuvres, la foi et la grâce, il y a chez Luther cette approche radicale, désireuse de rupture, de rationalité et d'homogénéisation. Cette approche est une des formes possibles de la modernité occidentale. On pourrait dire que c'est la face sombre des Lumières, et il me semble qu'on en trouve la trace dès Luther.
Truie : La "truie des Juifs", ou "truie juive" (en allemand Judensau), est un motif antisémite classique au Moyen Âge, figurée notamment sur un bas-relief de l'église de la ville de Wittemberg (où Luther prêcha). Elle représente des Juifs en contact obscène avec une truie, et entend dénoncer ainsi la bestialité des Juifs et le lien intime qu'ils entretiennent avec les porcs. L'image revient à vingtaine de reprises dans "Des Juifs et de leurs mensonges".
- Quels ont été les effets de l'ouvrage de Luther sur le protestantisme et sur l'histoire allemande ?
- Sur le moment même, il n'a que peu d'effets: bien des expulsions sont prononcées sans que l'on ait besoin pour cela de ses recommandations. On a toutefois connaissance de mesures adoptées dans son sillage dans le Neumark, en Saxe ou encore en Hesse.
En outre, si sa réception et ses usages furent importants à l'époque de sa publication, y compris avec quelques condamnations par des contemporains de Luther, il semble que, passé le XVIe siècle, cette partie de l'oeuvre du théologien a en fait été assez oubliée. Aux XVIIe et XVIIIe siècles, les trois traités antijudaïques sont publiés de loin en loin isolément. Leur retour sur le devant de la scène commence dans les années 1830-1840 et c'est en 1920 que l'édition de Weimar qui fait référence achève de les rendre visibles.
On peut toutefois défendre que la présence d'une haine si forte dans une oeuvre si lue ne peut qu'avoir de lourds effets. Pour ainsi dire, avec "Des Juifs et de leurs mensonges", le vers est dans le fruit : l'antisémitisme est durablement légitimé. Avec lui, s'enclenche une certaine modernité allemande, qui n'est bien sûr ni toute l'Allemagne, ni toute la modernité. Que l'on songe aux accusations portées par Emmanuel Levinas contre la conscience philosophique occidentale et sa volonté totalisante.
Dans une telle perspective, Luther prendrait place dans la généalogie d'un universalisme devenu criminel, qui passerait par les Lumières et déboucherait sur la constitution d'un "problème" posé par les Juifs, perçus comme faisant obstacle à l'avènement de l'universel "illimité" ou "facile".
Je reprends ici la thèse proposée par Jean-Claude Milner dans "les Penchants criminels de l'Europe". Pour Milner, ce que les universalistes (adeptes d'une lecture plus ou moins sécularisée des épîtres de Paul) ne supportent pas dans le judaïsme, c'est le principe de filiation. Et en effet, ce principe est copieusement attaqué par Luther, dont on sait l'importance qu'il accordait à Paul.
Pour autant, peut-on inscrire Luther dans la succession des penseurs qui, à force d'universalisme "facile", ont fini par fabriquer le "problème juif" et ouvert la voie à la "solution finale" ? Circonstance aggravante pour le réformateur, c'est dans les années 1930-1940 que ses textes antisémites ont été le plus souvent cités - en un sens favorable, puisqu'il s'agit de récupérations par les nazis. L'une des plus célèbres récupérations est celle de Julius Streicher, directeur de "Der Stürmer" et vieux compagnon de Hitler, lorsqu'il déclara au procès de Nuremberg (1946) :
en fin de compte, [Luther] serait aujourd'hui à [sa] place au banc des accusés si ["Des Juifs et de leurs mensonges"] avait été versé au dossier du procès.
Autre indice frappant : la carte du vote nazi et celle du protestantisme au début des années 1930 se recoupent parfaitement, et, pourrait-on dire, terriblement. Pour autant, il paraît injuste de voir là de véritables effets de l'oeuvre de Luther. Dans la tradition antisémite de l'Allemagne, aujourd'hui bien évidemment interrompue, Luther joue un rôle, sans doute, mais il est difficile d'en faire la pesée.
L'historien Marc Bloch prononça une mise en garde fameuse contre l'"idole des origines", ce commencement "qui suffit à expliquer". Dans une généalogie, les crimes des générations postérieures ne sont pas imputables aux ancêtres. Bien responsable de ce qu'il a écrit, et qui l'accable, Luther ne l'est pas de la suite de l'histoire, surtout si cinq siècles le séparent de cette "suite" dramatique.

Auteur: Savy Pierre

Info: propos recueillis par Eric Aeschimann, Des Juifs et de leurs mensonges, par Martin Luther, éditions Honoré Champion, 212

[ Europe ]

 

Commentaires: 0

co-vid-19

A tous les gens raisonnables et très intelligents qui s’indignent devant ceux qui ne veulent pas se faire vacciner.

Pardonnez-moi d’avoir des doutes sur la sûreté de ce que vous appelez en chœur des "vaccins". Je devrais en effet faire aveuglément confiance à la télé et aux autorités. Je devrais faire confiance aux études fournies par les laboratoires pharmaceutiques même s’ils ont été condamnés ces dernières années à des milliards de dollars d’amendes notamment pour fraude scientifique.

Pardonnez-moi mon égarement et mon effort pour comprendre la justification scientifique des mesures qui sont prises.

Pardonnez-moi de chercher à évaluer la proportionnalité des mesures prises par rapport aux risques encourus.

Pardonnez-moi de confronter le discours des scientifiques lourds de liens et de conflits d’intérêts avec ceux qui n’en ont pas.

Pardonnez-moi de chercher à comprendre la nature des controverses scientifiques plutôt que de me ranger dans la dictature d’une pensée autorisée arrogante et partiale.

Pardonnez-moi de ne pas vouloir être le cobaye d’injections expérimentales en cours d’essais cliniques.

Pardonnez-moi d’oser regarder les chiffres officiels (pourtant largement sous-évalués) des morts et des effets indésirables graves liés aux différents vaccins en cours au lieu de laisser cela aux "experts" ou bien de reconnaître simplement que tous ces évènements ne sont que des coïncidences sans lien de causalité établie.

Pardonnez-moi de ne pas vouloir faire prendre le risque d’effets secondaires graves à mes enfants alors qu’ils n’ont quasiment aucune chance de faire une forme grave du covid et que personne n’est capable honnêtement et scientifiquement de reconnaître un rapport bénéfice risque favorable pour eux d’une telle vaccination.

Pardonnez-moi d’exister

Vous avez raison, je ne suis qu’un insolent. Après tout nous sommes dans l’urgence et nous n’avons pas le temps de s’encombrer de la réflexion et de la morale. Ne brisons pas l’unité du troupeau et laissons-nous guider par les "experts" honnêtes et fiables qui nous gouvernent. L’important ce n’est pas la vérité, ce n’est même pas la réalité, c’est d’être uni dans la guerre contre le virus.

Vous avez raison le plus grand danger, ce sont les "complotistes", c’est-à-dire tous ceux qui osent remettre en cause l’intégrité des autorités politiques et scientifiques ou des médias de masse. Ces vilains conspirationnistes vont semer les germes du doute et de la division. Ils risquent, par leur impudence, de pousser les gens à réfléchir.

Merci en revanche à Pfizer et à Moderna, et à tous les autres, de penser à nous et de nous proposer une offre d’abonnement à vie.

Merci à leurs amis de longue date dès les bancs de l’université de médecine puis à travers une collaboration étroite de devenir leurs relais et contribuer ensemble à construire une science véritable au service de la santé.

Merci aux médias dominants, neutres et indépendants de faire un travail si important de réinformation des masses incultes dont je fais partie.

Merci bien évidemment aussi à toute l’équipe dirigeante de faire de son mieux, pour notre bien.

C’est pour notre bien.

Oui, c’est pour notre bien en effet que les autorités ont continué depuis un an et demi à supprimer des lits à l’hôpital.

C’est pour notre bien qu’ils nous ont imposé le port du masque à l’extérieur sans aucun fondement scientifique.

C’est pour notre bien qu’ils refusent de recommander de la vitamine D et du zinc en prévention pour renforcer nos défenses immunitaires malgré toutes les études qui confirment leur rôle.

C’est pour notre bien qu’ils refusent de recommander des traitements précoces peu onéreux malgré l’abondante littérature scientifique et les expériences de terrain qui en montrent l’efficacité et qu’ils recommandent seulement du doliprane et de rester à la maison.

C’est pour notre bien qu’ils menacent et suspendent tous les médecins qui ont soigné leurs patients avec des résultats époustouflants au lieu de les renvoyer chez eux avec du doliprane.

C’est pour notre bien qu’ils commandent des millions de dose de remdesivir à 3000 euros la dose en intraveineuse sans études validant ces effets et malgré un retour sur le terrain qui a conclu à son inefficacité, sa toxicité pour les reins et son rôle mutagène.

C’est pour notre bien qu’ils refusent de s’intéresser au vaccin chinois ou russe, (uniquement pour des raisons sanitaires ! ), même quand on ne disposait pas d’assez de vaccins.

C’est pour notre bien qu’ils terrorisent et menacent la population pour aller se faire injecter un médicament expérimental sur lequel nous n’avons aucun recul à moyen et long terme.

C’est pour notre bien que le pouvoir exécutif a créé un conseil de défense totalement secret (pour 50 ans) avec une haute autorité de santé composée d’acteurs en conflits d’intérêt.

C’est pour notre bien qu’ils incitent les enfants à se faire vacciner alors qu’ils risquent davantage de souffrir des effets secondaires des "vaccins" que du covid.

C’est pour notre bien qu’ils lancent une vaccination de masse en pleine pandémie contrairement aux règles habituelles de prudence.

C’est pour notre bien qu’ils piétinent les libertés les plus fondamentales et scindent à présent le peuple en deux avec deux régimes de droits.

C’est pour notre bien qu’ils ont interdit la prescription d’hydroxychloroquine jusque-là en vente libre par les médecins.

C’est pour notre bien qu’ils refusent de recommander l’usage de l’ivermectine, de macrolides et du zinc.

C’est pour notre bien qu’ils ont méprisé tout le travail de l’IHU méditerranée, le lieu le plus à la pointe de la recherche en France en infectiologie et dont les résultats ont été bien meilleurs qu’ailleurs.

C’est pour notre bien qu’ils mobilisent et financent des tests PCR peu fiables avec des cycles d’amplifications si nombreux que le test perd de toute sa pertinence.

C’est pour notre bien qu’ils comptabilisent comme mort du covid une majorité de gens morts avec le covid.

C’est pour notre bien qu’ils se sont associés avec les Gafam pour censurer les lanceurs d’alerte sur youtube, sur twitter, Facebook...

C’est pour notre bien qu’ils acceptent de décharger les industries pharmaceutiques de toute responsabilité juridique en cas d’effets secondaires des vaccins et qu’ils nous font signer une déclaration de consentement.

C’est pour notre bien qu’il a été décidé de créer une scission en France entre les vaccinés et les non-vaccinés alors même que les vaccinés peuvent être contaminants.

C’est pour notre bien qu’on a déclaré comme fou, gâteux, dangereux tous les scientifiques parmi les plus brillants et aux titres académiques les plus prestigieux qui ont eu le malheur de contester la narration officielle sur les évènements.

Pardonnez-moi de finir par me méfier de ceux qui veulent mon bien. Je suis trop bête pour comprendre.

Trop bête pour comprendre

Qu’on a dû changer la définition de ce qu’est un vaccin pour pouvoir dire que ces expériences géniques sont des vaccins.

Que nous sommes face à un vaccin si nouveau et si révolutionnaire qu’il n’empêche pas de tomber malade ni d’être contaminant.

Que nous prétendons "vacciner" les gens avec des techniques inédites qui sont en phase expérimentale et dont nous ne connaissons pas les conséquences à moyen terme et à long terme, mais que ceux qui se font vacciner ne seraient pas des cobayes.

Trop bête pour comprendre

Qu’on ne connaît pas exactement l’intégralité de la composition des vaccins au nom du secret industriel, mais qu’on ne peut pourtant affirmer qu’il n’y a pas de problèmes.

Que les industries pourvoyeuses des vaccins dont Pfizer ont été condamnés à plusieurs milliards d’amendes pour fraude scientifique, mais qu’on peut s’appuyer sur leurs seules études pour lancer la campagne vaccinale.

Que si des spécialistes de la vaccination et des scientifiques dans le monde entier mettent en garde contre les risques de ces vaccins à adénovirus ou à ARN messager, c’est parce qu’ils sont devenus fous ou séniles.

Que si une personne âgée meurt en ayant le covid, elle meurt du covid mais que si une personne âgée meurt après s’être fait vaccinée elle meurt de vieillesse.

Que le nombre de morts et d’effets indésirables officiellement signalés par les agences de pharmacovigilance chez les "vaccinés" est sans commune mesure par rapport aux vaccins habituels mais que nous devons fermer les yeux.

Trop bête pour comprendre

Que ces injections géniques évitent les formes graves alors que pourtant en Israël et en Angleterre ultra vaccinés une partie non négligeable des personnes en réanimation sont doublement vaccinés.

Que ce vaccin est tellement protecteur qu’il faut continuer les gestes barrières, continuer à porter les masques et surtout continuer à craindre les non-vaccinés.

Qu’il est tellement efficace qu’on parle déjà de "baisse immunitaire", de troisième ou de quatrième dose et pourquoi pas d’un abonnement annuel ou biannuel.

Trop bête pour comprendre

Qu’on n’a jamais mis fin aux épidémies de grippe mais qu’on prétend qu’en "vaccinant" tout le monde nous allons vaincre le coronavirus.

Que nous faisons partie des pays au monde qui ont le plus de morts par millions d’habitants, mais que nous sommes pourtant les meilleurs et que nous pouvons continuer à nous fier à la même équipe scientifico-politique.

Que les pays les plus vaccinés sont ceux qui sont les plus touchés par les nouveaux variants mais que c’est parce que nous ne sommes pas suffisamment vaccinés.

Que si les vaccinés tombent malades, c’est à cause des non-vaccinés.

Que l’État est surendetté et n’a pas d’argent, mais qu’il peut débloquer des milliards et des milliards pour financer sa politique sanitaire.

Que les tests et les vaccins sont gratuits, mais que ce sont les contribuables qui vont devoir les payer.

Qu’en prétendant sauver une partie infime de la population, nous allons sacrifier la vie de beaucoup d’autres et détruire l’avenir de la nation.

Oui, je suis trop bête pour comprendre tout cela.

Je dois avoir l’esprit tellement confus que tout semble s’inverser dans ma tête.

Je dois apprendre grâce à vous à remettre les choses dans le bon ordre.

Inversion

Je dois, en effet, comprendre que :

La liberté, c’est de se soumettre au pass sanitaire.

L’immunité artificielle est meilleure que l’immunité naturelle.

Si les gens vaccinés tombent malades ou développent des formes graves, c’est la preuve que le vaccin marche.

Si le vaccin fonctionne moins bien contre un nouveau variant, c’est qu’il faut reprendre une dose du même vaccin.

Toute personne testée positive à un test PCR est une personne malade.

Toute personne en bonne santé est un malade qui s’ignore et dont il faut se méfier.

Je suis désolé, je suis un peu lent et il va falloir que je me répète souvent tout cela pour réussir à l’intégrer. Heureusement que les journalistes sont là pour faire preuve de pédagogie et de répétition.

Merci à vous, tous les gens raisonnables et très intelligents, de veiller sur nous.

Merci de nous dispenser de penser.

Auteur: Moghaddassi Reza

Info: le 23 juillet 2021

[ défiance ] [ méfiance ]

 
Commentaires: 1
Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

proto-linguistique

Cette langue ancienne use de la seule grammaire basée entièrement sur le corps humain

Une famille de langues en voie de disparition suggère que les premiers humains utilisaient leur corps comme modèle de réalité

Un matin de décembre 2004, des adultes et des enfants erraient sur le rivage de Strait Island dans le golfe du Bengale lorsque l'un d'eux a remarqué quelque chose d'étrange. Le niveau de la mer était bas et des créatures étranges qui habitent normalement la zone crépusculaire profonde de l'océan se balançaient près de la surface de l'eau. “ Sare ukkuburuko ! ”— la mer s'est renversée! — cria Nao Junior, un des derniers héritiers d'une sagesse transmise sur des milliers de générations à travers sa langue maternelle. Il savait ce que signifiait ce phénomène bizarre. Tout comme d'autres peuples autochtones des îles Andaman. Ils se sont tous précipités à l'intérieur des terres et en hauteur, leurs connaissances ancestrales les sauvant du tsunami dévastateur qui s'est abattu sur les côtes de l'océan Indien quelques minutes plus tard et qui a emporté quelque 225 000 personnes.

Lorsque j'ai rencontré Nao Jr. pour la première fois, au tournant du millénaire, il était dans la quarantaine et l'un des neuf seuls membres de son groupe autochtone, le Grand Andamanais, qui parlait encore l'idiome de ses ancêtres ; les jeunes préférant l'hindi. En tant que linguiste passionnée par le décodage de structure, j'avais étudié plus de 80 langues indiennes de cinq familles différentes : indo-européenne (à laquelle appartient l'hindi), dravidienne, austroasiatique, tibéto-birmane et taï-kadaï. J'étais sur les îles pour documenter leurs voix autochtones avant qu'elles ne se transforment en murmures. Le peu que j'ai entendu était si déconcertant que j'y suis retourné plusieurs fois au cours des années suivantes pour essayer de cerner les principes qui sous-tendent les grandes langues andamanaises.

Ici mes principaux professeurs, Nao Jr. et une femme nommée Licho, parlaient un pastiche de langues qui comptaient encore quelque 5 000 locuteurs au milieu du 19e siècle. Le vocabulaire moderne étant très variable, dérivé de plusieurs langues parlées à l'origine sur l'île d'Andaman du Nord. Ce qui m'était vraiment étranger, cependant, c'était leur grammaire, qui ne ressemblait à rien de ce que j'avais jamais rencontré.

Une langue incarne une vision du monde et, alors qu'une civilisation, change et se développe par couches. Les mots ou les phrases fréquemment utilisés se transforment en formes grammaticales de plus en plus abstraites et compressées. Par exemple, le suffixe "-ed", signifiant le passé en anglais moderne, provient de "did" (c'est-à-dire que "did use" est devenu "used") ; Le vieil anglais où in steed et sur gemong sont devenus respectivement "instead" et "among". Ces types de transitions font de la linguistique historique un peu comme l'archéologie. Tout comme un archéologue fouille soigneusement un monticule pour révéler différentes époques d'une cité-État empilées les unes sur les autres, un linguiste peut séparer les couches d'une langue pour découvrir les étapes de son évolution. Il faudra des années à Nao Jr. et Licho endurant patiemment mes interrogatoires et mes tâtonnements pour que j'apprenne enfin la règle fondamentale de leur langue.

Il s'avère que le grand andamanais est exceptionnel parmi les langues du monde de par son anthropocentrisme. Il utilise des catégories dérivées du corps humain pour décrire des concepts abstraits tels que l'orientation spatiale et les relations entre les objets. Bien sûr, en anglais, nous pourrions dire des choses comme "la pièce fait face à la baie", "la jambe de la chaise s'est cassée" et "elle dirige l'entreprise". Mais en Grand Andamanais, de telles descriptions prennent une forme extrême, avec des morphèmes, ou segments sonores significatifs, qui désignent différentes zones du corps s'attachant aux noms, verbes, adjectifs et adverbes - en fait, à chaque partie du discours - pour créer des significations diverses. Parce qu'aucune autre langue connue n'a une grammaire basée sur le corps humain et/ou un partage des mots apparentés -  des mots qui ont une signification et une prononciation similaires, ce qui indique un lien généalogique - avec le grand andamanais, la langue constitue sa propre famille .

L'aspect le plus durable d'une langue est sa structure, qui peut perdurer sur des millénaires. Mes études indiquent que les Grands Andamanais furent effectivement isolés pendant des milliers d'années, au cours desquelles leurs langues ont évolué sans influence perceptible d'autres cultures. La recherche génétique corrobore ce point de vue, montrant que ces peuples autochtones descendent d'un des premiers groupes d'humains modernes qui a migré hors d'Afrique. En suivant le littoral du sous-continent indien, ils ont atteint l'archipel d'Andaman il y a peut-être 50 000 ans et y vivent depuis dans un isolement virtuel. Les principes fondamentaux de leurs langues révèlent que ces humains anciens ont conceptualisé le monde à travers leur corps.

PIÈCES DU CASSE-TÊTE

Lorsque je suis arrivé en 2001 à Port Blair, la principale ville de la région, pour mener une enquête préliminaire sur les langues autochtones, j'ai été dirigé vers Adi Basera, une maison que le gouvernement indien autorisait les Grands Andamanais à utiliser lorsqu'ils étaient en ville. C'était un bâtiment délabré avec de la peinture écaillée et des pièces sales ; enfants et adultes flânaient nonchalamment dans la cour. Quelqu'un m'a apporté une chaise en plastique. J'ai expliqué ma quête en hindi.

"Pourquoi es-tu venu ?" demanda Boro Senior, une femme âgée. "Nous ne nous souvenons pas de notre langue. Nous ne le parlons ni ne le comprenons. Il s'est avéré que toute la communauté conversait principalement en hindi, une langue essentielle pour se débrouiller dans la société indienne et la seule que les enfants apprenaient." Pendant que je le sondais cependant, Nao Jr. a avoué qu'il connaissait le Jero, mais parce qu'il n'avait personne avec qui en parler, il l'oubliait. Boro Sr. s'est avéré être la dernière personne à se souvenir de Khora, et Licho, alors dans la fin de la trentaine, qui était la dernière à parler le sare, la langue de sa grand-mère. Lorsqu'ils conversaient entre eux, ces individus utilisaient ce que j'appelle le Grand Andamanais actuel (PGA), un mélange de Jero, Sare, Bo et Khora - toutes langues des Andaman du Nord.

Lorsque les autorités britanniques ont établi une colonie pénitentiaire à Port Blair en 1858, les forêts tropicales de Great Andaman - comprenant le nord, le centre et le sud d'Andaman, ainsi que quelques petites îles à proximité - étaient habitées par 10 tribus de chasseurs et de cueilleurs qui semblaient culturellement liées. Les habitants du Great Andaman ont résisté aux envahisseurs, mais leurs arcs et leurs flèches n'étaient pas à la hauteur des fusils et, à une occasion, des canons de navires. Encore plus mortels furent les germes apportés par les étrangers, contre lesquels les insulaires n'avaient aucune immunité. Dans les années 1960, époque à laquelle les Andamans appartenaient à l'Inde, il ne restait plus que 19 Grands Andamanais, vivant principalement dans les forêts du nord d'Andaman. Les autorités indiennes les ont alors installés sur la petite île du détroit.

Un autre groupe de chasseurs-cueilleurs, les Jarawa, vivaient dans le sud d'Andaman, et lorsque les Grands Andamanais s'éteignirent , les Jarawa s'installèrent dans leurs territoires évacués du Moyen Andaman. Les Jarawa ont résisté au contact - et aux germes qui l'accompagnent - jusqu'en 1998 et sont maintenant au nombre d'environ 450. Leur culture avait des liens avec celle des Onge, qui vivaient sur Little Andaman et qui ont été sous controle des Britanniques dans les années 1880. Apparemment, les habitants de North Sentinel Island étaient également apparentés aux Jarawa. Ils continuent d'ailleurs de vivre dans un isolement volontaire, qu'ils ont imposé en 2018 en tuant un missionnaire américain.

(photo-schéma avec détails et statistiques des langage des iles adamans)

Mon enquête initiale a établi que les langues des Grands Andamanais n'avaient aucun lien avec celles des Jarawa et des Onge, qui pourraient constituer leur propre famille de langues. Réalisant que je devais documenter le Grand Andamanais avant qu'il ne soit réduit au silence, je suis revenu avec une équipe d'étudiants en 2005. C'était peu de temps après le tsunami, et les autorités avaient évacué les 53 Grands Andamanais vers un camp de secours à côté d'Adi Basera. Ils avaient survécu, mais leurs maisons avaient été inondées et leurs biens perdus, et un sentiment de bouleversement et de chagrin flottait dans l'air. Dans cette situation, Licho a donné naissance à un garçon nommé Berebe, source de joie. J'ai appris que les bébés étaient nommés dans l'utérus. Pas étonnant que les grands noms andamanais soient non sexistes !

Au camp, j'ai rencontré l'octogénaire Boa Senior, dernier locuteur de Bo et gardien de nombreuses chansons. Nous deviendrons très proches. Les grands jeunes andamanais avaient répondu au mépris des Indiens dominants pour les cultures autochtones en se détournant de leur héritage. Boa Sr me tenait la main et ne me laissait pas partir car elle était convaincue que ma seule présence, en tant qu'étranger rare qui valorisait sa langue, motiverait les jeunes à parler le grand andamanais. Pourtant, je l'ai appris principalement de Nao Jr. et Licho, dont l'intérêt pour leurs langues avait été enflammé par le mien. Il s'est avéré que Nao Jr. en savait beaucoup sur l'environnement local et Licho sur l'étymologie, étant souvent capable de me dire quel mot venait de quelle langue. J'ai passé de longues heures avec eux à Adi Basera et sur Strait Island, les accompagnant partout où ils allaient - pour nous prélasser à l'extérieur de leurs huttes, errer dans la jungle ou pêcher sur la plage. Plus ils s'efforçaient de répondre à mes questions, plus ils puisaient dans les profondeurs de la mémoire. J'ai fini par collecter plus de 150 grands noms andamanais pour différentsespèces de poissons et 109 pour les oiseaux .

Les responsables britanniques avaient observé que les langues andamanaises étaient un peu comme les maillons d'une chaîne : les membres des tribus voisines des Grands Andamans se comprenaient, mais les langues parlées aux extrémités opposées de l'archipel, dans les Andamans du Nord et du Sud, étaient mutuellement inintelligibles. En 1887, l'administrateur militaire britannique Maurice Vidal Portman publia un lexique comparatif de quatre langues, ainsi que quelques phrases avec leurs traductions en anglais. Et vers 1920, Edward Horace Man compila un dictionnaire exhaustif de Bea, une langue des Andaman du Sud. C'étaient des enregistrements importants, mais aucun n'a résolu le puzzle que la grammaire posait.

Moi non plus. D'une manière ou d'une autre, ma vaste expérience avec les cinq familles de langue indienne ne m'aidait pas. Une fois, j'ai demandé à Nao Jr. de me dire le mot pour "sang". Il m'a regardé comme si j'étais une imbécile et n'a pas répondu. Quand j'ai insisté, il a dit: "Dis-moi d'où ça vient." J'ai répondu: "De nulle part." Irrité, il répéta : "Où l'as-tu vu ?" Il fallait que j'invente quelque chose, alors j'ai dit : "sur mon doigt. Sa réponse est venue rapidement — "ongtei !" – puis il débita plusieurs mots pour désigner le sang sur différentes parties du corps. Si le sang sortait des pieds ou des jambes, c'était otei ; l'hémorragie interne était etei; et un caillot sur la peau était ertei . Quelque chose d'aussi basique qu'un nom changeait de forme en fonction de l'emplacement.

Chaque fois que j'avais une pause dans mon enseignement et d'autres tâches, je visitais les Andamans, pendant des semaines ou parfois des mois. Il m'a fallu un an d'étude concertée pour entrevoir le modèle de cette langue - et quand je l'ai fait, toutes les pièces éparses du puzzle se sont mises en place. Très excité, je voulus tout de suite tester mes phrases inventées. J'étais à l'Institut Max Planck d'anthropologie évolutive à Leipzig, en Allemagne, mais j'ai téléphoné à Licho et je lui ai dit : "a Joe-engio eole be". Licho a été bouleversé et m'a fait un compliment chéri : "Vous avez appris notre langue, madame !"

Ma phrase était simplement "Joe te voit". Joe était un jeune Grand Andamanais, et -engio était "seulement toi". Ma percée avait été de réaliser que le préfixe e- , qui dérivait à l'origine d'un mot inconnu désignant une partie interne du corps, s'était transformé au fil des éons en un marqueur grammatical signifiant tout attribut, processus ou activité interne. Donc l'acte de voir, ole, étant une activité interne, devait être eole. Le même préfixe pourrait être attaché à -bungoi , ou "beau", pour former ebungoi, signifiant intérieurement beau ou gentil ; de sare , pour "mer", pour former esare, ou "salé", une qualité inhérente ; et au mot racine -biinye, "pensant", pour donner ebiinye , "penser".

LE CODE CORPOREL

La grammaire que j'étais en train de reconstituer était basée principalement sur Jero, mais un coup d'œil dans les livres de Portman et de Man m'a convaincu que les langues du sud du Grand Andamanais avaient des structures similaires. Le lexique se composait de deux classes de mots : libre et lié. Les mots libres étaient tous des noms faisant référence à l'environnement et à ses habitants, tels que ra pour "cochon". Ils pourraient se produire seuls. Les mots liés étaient des noms, des verbes, des adjectifs et des adverbes qui existaient toujours avec des marqueurs indiquant une relation avec d'autres objets, événements ou états. Les marqueurs (spécifiquement, a- ; er- ; ong- ; ot- ou ut- ; e- ou i- ; ara- ; eto- ) dérivaient de sept zones du corps et étaient attaché à un mot racine, généralement sous forme de préfixe, pour décrire des concepts tels que "dedans", "dehors", "supérieur" et "inférieur". Par exemple, le morphème er- , qui qualifiait presque tout ce qui concernait une partie externe du corps, pouvait être collé à -cho pour donner ercho , signifiant "tête". Une tête de porc était ainsi raercho.

(Photo/schéma désignant les 7 zones du corps humain qui font référence ici)

Zone     Marqueur          Parties corps/sémantique       

1              a -                  en rapport avec la bouche/origine 

2              er -                 corps et parties externes supérieures

3              ong -              extrémités (doigts main, pied) 

4              ut/ot -             (cerveau/intellect) produits corporels, partie-tout,

5              e / i -               organes internes

6              ara -                organes sexuels et formes latérales/rondes

7              o -                   jambes/partie basse         

Cette dépendance conceptuelle n'était pas toujours le signe d'un lien physique. Par exemple, si la tête du porc était coupée pour être rôtie, le marqueur t- pour un objet inanimé serait attaché à er- pour donner ratercho ; ce n'était plus vivant mais toujours une tête de cochon. Le suffixe -icho indiquait des possessions véritablement séparables. Par exemple, Boa-icho julu signifiait "les vêtements de Boa".

Tout comme une tête, un nom, ne pouvait pas exister conceptuellement par lui-même, le mode et l'effet d'une action ne pouvaient être séparés du verbe décrivant l'action. Les Grands Andamanais n'avaient pas de mots pour l'agriculture ou la culture mais un grand nombre pour la chasse et la pêche, principalement avec un arc et des flèches. Ainsi, la racine du mot shile , qui signifie "viser", avait plusieurs versions : utshile , viser d'en haut (par exemple, un poisson) ; arashile, viser à distance (comme un cochon); et eshile, visant à percer.

Inséparables également de leurs préfixes, qui les dotaient de sens, étaient les adjectifs et les adverbes. Par exemple, le préfixe er- , pour "externe", a donné l'adjectif erbungoi , pour "beau" ; le verbe eranye, signifiant "assembler" ; et l'adverbe erchek, ou "rapide". Le préfixe ong- , la zone des extrémités, fournissait ongcho , "piquer", quelque chose que l'on faisait avec les doigts, ainsi que l'adverbe ongkochil, signifiant "précipitamment", qui s'appliquait généralement aux mouvements impliquant une main ou un pied. Important aussi était le morphème a-, qui renvoyait à la bouche et, plus largement, aux origines. Il a contribué aux noms aphong, pour "bouche", et Aka-Jero , pour "son langage Jero" ; les adjectifs ajom , "avide", et amu, "muet" ; les verbes atekho, "parler", et aathitul , "se taire" ; et l'adverbe aulu, "avant".

Ces études ont établi que les 10 langues originales du grand andamanais appartenaient à une seule famille. De plus, cette famille était unique en ce qu'elle avait un système grammatical basé sur le corps humain à tous les niveaux structurels. Une poignée d'autres langues autochtones, telles que le papantla totonaque, parlé au Mexique, et le matsés, parlé au Pérou et au Brésil, utilisaient également des termes faisant référence à des parties du corps pour former des mots. Mais ces termes ne s'étaient pas transformés en symboles abstraits, ni ne se sont propagés à toutes les autres parties du discours.

(Photo - tableau - schéma avec exemples de mots - verbes - adverbes, dérivés des  7 parties)

Plus important encore, la famille des langues semble être d'origine vraiment archaïque. Dans un processus d'évolution en plusieurs étapes, les mots décrivant diverses parties du corps s'étaient transformés en morphèmes faisant référence à différentes zones pour fusionner avec des mots basiques pour donner un sens. Parallèlement aux preuves génétiques, qui indiquent que les Grands Andamanais ont vécu isolés pendant des dizaines de milliers d'années, la grammaire suggère que la famille des langues est née très tôt, à une époque où les êtres humains conceptualisaient leur monde à travers leur corps. La structure à elle seule donne un aperçu d'une ancienne vision du monde dans laquelle le macrocosme reflète le microcosme, et tout ce qui est ou qui se passe est inextricablement lié à tout le reste.

ANCÊTRES, OISEAUX

Un matin sur Strait Island, j'ai entendu Boa Sr. parler aux oiseaux qu'elle nourrissait. J'ai écouté pendant un bon moment derrière une porte, puis je me suis montrée pour lui demander pourquoi elle leur parlait.

"Ils sont les seuls à me comprendre", a-t-elle répondu.

"Comment ça se fait?" J'ai demandé.

"Ne sais-tu pas qu'pas sont nos ancêtres ?"

J'ai essayé de réprimer un rire étonné, mais Boa l'a perçu. "Oui, ce sont nos ancêtres", a-t-elle affirmé. "C'est pourquoi nous ne les tuons ni ne les chassons. Tu devrais demander à Nao Jr.; il connaît peut-être l'histoire."

Nao ne s'en souvint pas tout de suite, mais quelques jours plus tard, il raconta l'histoire d'un garçon nommé Mithe qui était allé à la pêche. Il a attrapé un calmar, et en le nettoyant sur la plage, il a été avalé par un Bol , un gros poisson. Ses amis et sa famille sont venus le chercher et ont réalisé qu'un Bol l'avait mangé. Phatka, le plus intelligent des jeunes, a suivi la piste sale laissée par le poisson et a trouvé le Bol en eau peu profonde, la tête dans le sable. C'était un très grand, alors Phatka, Benge et d'autres ont appelé à haute voix Kaulo, le plus fort d'entre eux, qui est arrivé et a tué le poisson.

Mithe est sorti vivant, mais ses membres étaient engourdis. Ils allumèrent un feu sur la plage et le réchauffèrent, et une fois qu'il eut récupéré, ils décidèrent de manger le poisson. Ils le mirent sur le feu pour le faire rôtir. Mais ils avaient négligé de nettoyer correctement le poisson, et il éclata, transformant toutes les personnes présentes en oiseaux. Depuis ce moment-là, les Grands Andamanais conservent une affinité particulière avec Mithe, la Colombe Coucou Andaman ; Phatka, le corbeau indien ; Benge, l'aigle serpent Andaman; Kaulo, l'aigle de mer à ventre blanc ; Celene, le crabe pluvier; et d'autres oiseaux qu'ils considéraient comme des ancêtres.

Dans la vision de la nature des Grands Andamanais, la principale distinction était entre tajio, le vivant, et eleo , le non-vivant. Les créatures étaient tajio-tut-bech, "êtres vivants avec des plumes" - c'est-à-dire de l'air; tajio-tot chor, "êtres vivants à écailles", ou de l'eau ; ou tajio-chola, "êtres vivants de la terre". Parmi les créatures terrestres, il y avait des ishongo, des humains et d'autres animaux, et des tong, des plantes et des arbres. Ces catégories, ainsi que de multiples attributs d'apparence, de mouvement et d'habitudes, constituaient un système élaboré de classification et de nomenclature, que j'ai documenté pour les oiseaux en particulier. Parfois, l'étymologie d'un nom grand andamanais ressemblait à celle de l'anglais. Par exemple, Celene, composé de mots racines pour "crabe" et "épine", a été ainsi nommé parce qu'il craque et mange des crabes avec son bec dur et pointu.

La compréhension extrêmement détaillée de l'environnement naturel détenue par le peuple des Grands Andamanais (Nao Jr. nomma au moins six variétés de bords de mer et plus de 18 types d'odeurs) indique une culture qui a observé la nature avec un amour profond et un intérêt aigu. Considérant la nature comme un tout, ils ont cherché à examiner l'imbrication des forces qui construisent cet ensemble. L'espace était une construction culturelle, définie par le mouvement des esprits, des animaux et des humains le long d'axes verticaux et horizontaux. Dans la vision du monde des Grands Andamanais, l'espace et tous ses éléments naturels - le soleil, la lune, la marée, les vents, la terre et la forêt - constituaient ensemble le cosmos. Dans cette vision holistique, les oiseaux, les autres créatures et les esprits étaient tous interdépendants et faisaient partie intégrante du concept d'espace.

Le temps aussi était relatif, catégorisé en fonction d'événements naturels tels que la floraison des fleurs saisonnières, la disponibilité du miel - le calendrier du miel, pourrait-on l'appeler - le mouvement du soleil et de la lune, la direction des vents, la disponibilité des ressources alimentaires et le meilleur moment pour chasser le poisson ou d'autres animaux. Ainsi, lorsque la fleur de koroiny auro fleurit, les tortues et les poissons sont gras ; lorsque le bop taulo fleurit, les poissons bikhir, liot et bere sont abondants ; lorsque le loto taulo fleurit, c'est le meilleur moment pour attraper les poissons phiku et nyuri ; et quand le chokhoro taulo fleurissent, les cochons sont les plus gras et c'est le meilleur moment pour les chasser.

Même le "matin" et le "soir" étaient relatifs, selon la personne qui les vivait. Pour dire, par exemple, "Je te rendrai visite demain", on utiliserait ngambikhir, pour "ton demain". Mais dans la phrase "je finirai ça demain", le mot serait tambikhir, "mon demain". Le temps dépendait de la perspective de celui qui était impliqué dans l'événement.

Les mythes des Grands Andamanais indiquaient que leurs premiers ancêtres résidaient dans le ciel, comme dans une autre histoire que Nao Jr. m'a racontée. 

Le premier homme, sortant du creux d'un bambou, trouva de l'eau, des tubercules, de l'argile fine et de la résine. Il modela un pot en argile, alluma un feu avec la résine, fit bouillir les tubercules dans le pot et savoura un repas copieux. Puis il fabriqua une figurine en argile et ll laissa sur le feu. À son étonnement et à sa joie, elle se transforma en femme. Ils eurent beaucoup d'enfants et étaient très heureux. Après un long séjour sur Terre, le couple partit pour un endroit au-dessus des nuages, rompant tous les liens avec ce monde.

Des larmes ont coulé sur les joues de Nao Jr. alors qu'il racontait ce conte de création, qui présentait tous les éléments de la vie : l'eau, le feu, la terre, l'espace et l'air. Pour cet homme solitaire - sa femme l'avait quitté il y a des années pour un autre homme -, créer une partenaire selon ses désirs était la fable romantique ultime. Alors que je lui avais demandé des histoires pour la première fois, il avait dit ne pas en avoir entendu depuis 40 ans et qu'il n'en avait pas pour moi faute de mémoire. Mais au cours de nombreuses soirées, avec le gazouillis des grillons et les cris des grenouilles à l'extérieur, il m'a raconté 10 histoires précieuses, presque inédites pour une langue au bord de l'extinction. Peut-être que l'une des raisons pour lesquelles nous nous sommes tellement liés était que nous étions tous les deux raupuch - quelqu'un qui a perdu un frère ou une sœur. Nao Jr. a été choqué d'apprendre que ni l'anglais ni aucune langue indienne n'a un tel mot. "Pourquoi?" Il a demandé. "n'aimez-vous pas vos frères et soeurs"

Nao Jr. a quitté ce monde en février 2009. Avec cette mort prématurée, il a emporté avec lui un trésor de connaissances qui ne pourra jamais être ressuscité et m'a laissé raupuch à nouveau. Boro Sr. est décédé en novembre et Boa Sr. en janvier 2010, laissant sa voix au travers de plusieurs chansons. Licho est décédé en avril 2020. À l'heure actuelle, seules trois personnes - Peje, Golat et Noe - parlent encore une langue de la grande famille andamanaise, dans leur cas le Jero. Ils ont tous plus de 50 ans et souffrent de diverses affections. Toute la famille de ces langues est menacée d'extinction imminente.

Sur les quelque 7 000 langues parlées par les humains aujourd'hui, la moitié se taira d'ici la fin de ce siècle. La survie à l'ère de la mondialisation, de l'urbanisation et des changements climatiques oblige les communautés autochtones à remplacer leurs modes de vie et leurs langues traditionnels par ceux de la société dominante. Quand l'ancienne génération ne peut plus enseigner la langue aux plus jeunes, une langue est condamnée. Et avec chaque langue perdue, nous perdons une mine de connaissances sur l'existence humaine, la perception, la nature et la survie. Pour donner le dernier mot à Boa Sr. : "Tout est parti, il ne reste plus rien – nos jungles, notre eau, notre peuple, notre langue. Ne laissez pas la langue vous échapper ! Tiens bon !"

Auteur: Anvita Abbi

Info: "Whispers from Deep Time" dans Scientific American 328, 6, 62-69 (juin 2023). Trad et adaptation Mg

[ septénaire ] [ conte mythologique ] [ intraduisible ] [ paléolinguistique ] [ ethnolinguistique ] [ chronos ] [ idiome altruiste ] [ couple ]

 

Commentaires: 0

Ajouté à la BD par miguel