Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 182
Temps de recherche: 0.0572s

infobésité éparpillante

Comment notre cerveau compense les distractions numériques

Téléphone, mails, notifications... Opposé à toutes les sollicitations auxquelles nous sommes confrontés, le cerveau tente tant bien que mal de rester concentré. Voici comment.

Aujourd'hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d'un supérieur et l'appel de l'école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s'imposer encore davantage avec la multiplication des objets connectés dans les futures " maisons intelligentes ".

Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 3% à 27% du temps d'exécution de l'activité en cours.

En tant que chercheuse en psychologie cognitive, j'étudie les coûts cognitifs de ces interruptions numériques: augmentation du niveau de stress, augmentation du sentiment d'épuisement moral et physique, niveau de fatigue, pouvant contribuer à l'émergence de risques psychosociaux voire du burn-out.

Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d'études souligne qu'il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s'inquiéter des interruptions numériques?

L'intégration d'objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance, par exemple. En 2021, les taux de pénétration des maisons connectées (c'est-à-dire, le nombre de foyers équipés d'au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d'environ 13% dans l'Union européenne et de 17% en France (contre 10,7% en 2018).

Si la facilité d'utilisation et l'utilité perçue des objets connectés ont un impact sur l'acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c'est-à-dire l'ensemble des processus liés à la perception, l'attention, la mémoire, la compréhension, etc.

L'impact des interruptions numériques peut s'observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d'une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1h30 par jour à récupérer des interruptions liées aux courriels. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu'un sentiment de frustration, voire d'épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60% déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l'on pourrait penser.

Mieux comprendre d'où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d'œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d'adapter notre comportement et de réaliser l'action appropriée: le cerveau met en place des boucles prédictives et d'anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d'attention et de concentration émerge: celui de la fluence de traitement. Il s'agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l'information.

Le concept de fluence formalise quelque chose que l'on comprend bien intuitivement: notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est " motivée " par une croyance qu'il formule a priori sur la facilité ou la difficulté d'une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s'adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l'information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu'un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l'attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudo-mots, des mots inventés par les scientifiques tels que " HENSION ", notamment lorsqu'on leur demandait de ne pas lire les mots présentés à l'écran.

Ainsi, une de nos études a montré que la fluence –la facilité perçue d'une tâche– guide l'attention des participants vers ce que leur cerveau prédit. L'étude consistait à comprendre comment la prévisibilité des mots allait influencer l'attention des participants. Les participants devaient lire des phrases incomplètes, puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l'attention des participants que les mots incohérents.

Il semblerait qu'un événement cohérent avec la situation en cours attire plus l'attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l'une des premières à montrer que la fluence de traitement a un effet sur l'attention. D'autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été lancé, mais n'a pas pu aboutir dans le contexte de la pandémie de Covid-19.

Comme nous l'avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l'environnement n'est pas conforme à ce que notre cerveau avait prévu, nous devons d'une part adapter nos actions (souvent alors qu'on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l'événement imprévu afin d'adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu'elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut).

Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d'adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle: on dit qu'il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu'elles soient numériques ou non, ne sont pas prévues par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c'est-à-dire qu'elle contredit ce que le cerveau avait envisagé et préparé.

L'interruption a des conséquences au niveau comportemental et cognitif: arrêt de l'activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

À quel moment notre cerveau est-il le plus performant?

La rupture de fluence déclenche automatiquement la mise en place de stratégies d'adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l'attention et déclenche un processus de recherche de la cause de la rupture. Lors d'une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d'anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence: la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d'où va provenir l'interruption (le téléphone dans sa poche ou la boîte mail sur l'ordinateur) ni ce que sera le contenu de l'information (l'école des enfants, un démarchage téléphonique, etc.).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d'utiliser les technologies de façon consciente et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple, la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple, le mode silencieux du téléphone ou le mode " focus " de logiciels de traitement de texte), ou même l'adoption de technologies intelligentes qui favorisent activement la concentration en minimisant les distractions dans l'environnement.

En fin de compte, l'évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet " Habitat urbain en transition " (HUT) pour lequel j'ai travaillé dans le cadre de mon postdoctorat.

De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l'hyperconnexion des habitations, des usages et du bien-être, au sein d'un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l'impact des technologies au sein d'un habitat connecté afin d'en prévenir les dérives. 

Auteur: Cases Anne-Sophie

Info: https://www.slate.fr/ - 18 avril 2024,  avec Sibylle Turo

[ déconcentration ]

 

Commentaires: 0

Ajouté à la BD par miguel

USA

Est-ce que Washington nous tuera tous?
Saviez-vous que Washington maintient 450 ICBM [missiles balistiques intercontinentaux] nucléaires en alerte instantanée? Washington pense que cela nous met en sécurité. Le raisonnement, si on peut appeler cela de la raison, est qu'en étant capables de tirer en quelques minutes, personne n'essaiera d'attaquer les États-Unis avec des armes nucléaires. Les missiles états-uniens sont en mesure de faire ce qu'ils doivent avant que les missiles de l'ennemi puissent atteindre les États-Unis pour détruire les nôtres.
Si cela vous fait vous sentir en sécurité, vous avez besoin de lire le livre d'Éric Schlosser, Command and Control.
Le problème avec les alertes instantanées est qu'elles peuvent faire des erreurs, des lancements accidentels et plus probablement non autorisés. Schlosser fait l'histoire de quasi lancements d'attaques qui auraient pu apporter un Armaggedon au monde.
Dans Catalyst, une publication de l'Union of Concerned Scientists [Union des scientifiques concernés], Elliott Negin raconte l'histoire du lieutenant-colonel soviétique Stanislav Petrov. Juste après minuit, en 1983, le système satellitaire d'alerte précoce de l'Union soviétique a déclenché l'alarme parce que 4 ICBM états-uniens se dirigeaient vers l'Union soviétique.
Le colonel Petrov était censé informer le dirigeant soviétique, qui aurait eu huit à dix minutes pour décider s'il lançait une attaque en représailles. Qui sait ce qu'il aurait décidé. Au lieu de quoi, le colonel Petrov a fait appel à son jugement. Il n'y avait pas de raison pour que les États-Unis attaquent l'Union soviétique. En plus, Petrov a raisonné qu'une attaque américaine impliquerait des centaines d'ICBM, peut-être des milliers. Il a vérifié si le radar au sol soviétique avait détecté l'entrée des ICBM, et il ne l'avait pas fait. Petrov a donc décidé que c'était une fausse alerte, et s'est assis dessus.
Il s'est avéré que le système d'alerte précoce avait pris par erreur un reflet de lumière solaire sur les nuages pour des missiles. C'était de justesse, ils ont eu chaud, mais Negin rapporte qu'une puce d'ordinateur abîmée et une carte de circuit mal installée sont parmi les coupables qui pourraient déclencher une guerre nucléaire. En d'autres termes, les sources de fausses alertes sont nombreuses.
Maintenant, venons-en à aujourd'hui. Imaginez un officier américain en train de surveiller le système d'alerte précoce des États-Unis. Pendant 15 ans, cet officier a entendu de la propagande de guerre, accompagnée des invasions et des bombardements de huit pays par les États-Unis. Les avertissements terroristes et les alertes à la sécurité abondent, tout comme les appels de politiciens américains et israéliens à larguer des bombes atomiques sur l'Iran. Les médias l'ont convaincu que la Russie avait envahi l'Ukraine et qu'elle est sur le point d'envahir les États baltes et la Pologne. Des troupes américaines et des blindés ont été dépêchés sur la frontière russe. On parle d'armer l'Ukraine. Poutine est dangereux et menace de la guerre atomique, amenant ses bombardiers stratégiques tout près de nos frontières et faisant exécuter des exercices nucléaires. L'officier américain vient d'entendre sur Fox News un général appeler à nouveau à tuer les Russes. Les Républicains l'ont convaincu qu'Obama vend l'Amérique à l'Iran, avec l'avertissement du sénateur Tom Cotton que la conséquence sera la guerre nucléaire. Nous serons tous tués parce qu'il y a un musulman à la Maison Blanche.
Pourquoi n'y a-t-il personne pour soutenir l'Amérique, s'étonne l'officier américain patriote, juste au moment où l'alarme se déclenche: ICBM entrants. Est-ce que c'est des Russes ou des Iraniens? Est-ce qu'Israël n'avait pas raison, après tout? Un programme d'armement nucléaire iranien caché? Ou Poutine a-t-il décidé que les États-Unis font obstacle à sa reconstruction de l'Empire soviétique, dont les médias américains affirment que c'est l'objectif de Poutine? Il n'y a aucun espace pour la réflexion dans l'esprit de l'officier américain. Il a été mis en alerte immédiate par la propagande incessante que les Américains appellent information. Il transmet l'avertissement.
Le conseiller néocon russophobe d'Obama à la Sécurité nationale: "Vous ne pouvez pas laisser Poutine continuer avec ça !" "Ce pourrait être une fausse alerte", réplique le président nerveux et agité. "Vous, espèce de lavette libérale! Ne savez-vous pas que Poutine est dangereux!? Pressez sur le bouton!"
Et c'est là que va le monde.
Considérons la russophobie extrême suscitée chez les Américains par le ministère de la Propagande, la diabolisation de Vladimir Poutine - le nouvel Hitler, Vlad l'Empaleur - la création propagandiste de la menace russe, le désir fou des néocons d'une hégémonie états-unienne mondiale, la haine de la Russie et de la Chine en tant que rivaux émergents capables d'exercer un pouvoir indépendant, la perte du statut de puissance américaine universelle et de liberté d'action unilatérale. Au milieu de ces émotions et de ces esprits influencés non par des faits mais par de la propagande, de l'orgueil et de l'idéologie, il y a une grande chance pour que la réponse de Washington à une fausse alerte provoque la fin de la vie sur la terre.
Quelle confiance avez-vous en Washington? Combien de fois Washington - et en particulier les fous néocons - ont-ils eu tort?
Vous rappelez-vous la guerre de trois semaines en Irak, du gâteau, qui coûterait $70 milliards et serait payée par les revenus du pétrole irakien? Aujourd'hui, le coût se monte à $3 000 milliards et augmente encore, et après douze ans, l'État islamique radical contrôle la moitié du pays. Pour payer les guerres, les Républicains veulent privatiser, c'est-à-dire s'emparer de la sécurité sociale et de Medicare.
Vous vous souvenez de la mission accomplie en Afghanistan? Douze ans plus tard, les talibans contrôlent de nouveau le pays et Washington, après avoir assassiné des femmes, des enfants, des funérailles, des mariages, des anciens dans les villages et des enfants jouant au foot, a été chassé par quelques milliers de talibans légèrement armés.
Les frustrations provoquées par ces défaites se sont accumulées à Washington et dans l'armée. Le mythe est que nous avons perdu parce que nous n'avons pas engagé toute notre force. Nous avons été intimidés par l'opinion mondiale ou par ces maudits manifestants étudiants, ou empêchés de vaincre par quelque président lâche, une lavette libérale qui n'utilise pas toute notre puissance. Pour la droite, la rage est un mode de vie.
Les néocons croient ardemment que l'Histoire a choisi l'Amérique pour diriger le monde, et ici nous avons été vaincus par la guérilla vietnamienne, par les tribus afghanes, par les fondamentalistes islamiques, et maintenant Poutine a envoyé ses missiles pour achever le travail.
Le fou de la Maison Blanche, quel qu'il soit, pressera sur le bouton.
La situation se détériore, elle ne s'améliore pas. Les Russes, espérant quelque signe d'intelligence en Europe, contredisent les mensonges antirusses de Washington. Le contraire exact de sa propre propagande, Washington l'appelle propagande russe. Washington a ordonné au Broadcasting Board of Governors, une agence gouvernementale, dirigée par Andrew Lack, un ancien directeur de NBC News, de contrer une prétendue - mais inexistante - Armée de trolls du Kremlin, qui gueule plus fort que les presstitués occidentaux et perpétue un dialogue prorusse sur Internet. Au cas où vous ne vous en souviendriez pas, Lack est l'idiot qui a déclaré que RT était une organisation terroriste. En d'autres termes, de l'avis de Lack, celui qu'il peut imposer, quelqu'un qui dit la vérité est un terroriste.
Lack incarne bien le point de vue de Washington sur la véracité des récits: si cela ne sert pas la propagande de Washington, ce n'est pas vrai. C'est du terrorisme.
Lack espère contrôler RT par l'intimidation: en effet, il a dit à RT de se taire et de dire ce que nous voulons qu'ils disent, sinon nous vous fermerons comme organisation terroriste. Nous pourrions même arrêter vos employés américains comme instigateurs et complices de terrorisme.
Pour contrer une Russie revancharde et son armée de trolls sur Internet, le régime d'Obama distribue $15 400 000 à ce fou de Lack pour discréditer chaque déclaration véridique publiée sur les versions en anglais des médias russes. Cette somme, évidemment, va augmenter considérablement. Bientôt elle se comptera en milliards de dollars, tandis que des Américains sont expulsés de leurs maisons et envoyés en prison à cause de leurs dettes.
Dans sa demande d'argent, Lack, qui semble manquer de toutes les qualités humaines, dont l'intelligence, l'intégrité et la moralité, a justifié sa requête, qui sera honorée, de recevoir l'argent durement gagné des Américains dont le niveau de vie baisse, par l'affirmation rocambolesque que la Russie "menace ses voisins et, par extension, les États-Unis et leurs alliés occidentaux".
Lack promet de faire encore plus: "Les médias internationaux états-uniens sont maintenant tenus de réfuter la propagande russe et d'influencer les esprits des Russes et des russophones dans l'ancienne Union soviétique, en Europe et dans le monde." Lack va faire de la propagande contre la Russie à l'intérieur de la Russie.
Évidemment, les organisations de la CIA - le National Endowment for Democracy et Radio Free Europe/Radio Liberty - seront enrichies par cette campagne de propagande antirusse et l'appuieront sans réserve.
Donc l'appel de l'Union of Concerned Scientists à la coopération avec la Russie pour mettre les ICBM hors statut d'alerte immédiate a peu de chances de se concrétiser. Comment les tensions nucléaires peuvent-elles se réduire lorsque Washington construit des tensions aussi rapidement qu'il peut? Le ministère de la Propagande à Washington a portraituré Poutine comme Oussama Ben Laden, comme Saddam Hussein, des personnages diaboliques, des épouvantails qui effraient des Américains moutonniers à qui on a bourré le crâne. La Russie est transformée en al-Qaida avide de lancer une nouvelle attaque contre le World Trade Center et de faire déferler l'Armée rouge (de nombreux Américains pensent que la Russie est toujours communiste) sur l'Europe.
Gorbatchev était une ruse. Il a trompé le vieil acteur de cinéma [Reagan]. Les Américains trompés sont des cibles faciles, et voici qu'arrivent les ICBM. Les vues folles des politiciens américains, des militaires et des gens sont incapables de saisir la vérité ou de reconnaître la réalité.
Les médias américains propagandistes et les néoconservateurs fous ont amené l'humanité sur le chemin de la destruction.
L'Union of Concerned Scientists, dont je suis membre, a besoin de reprendre ses esprits. Il est impossible de travailler à une réduction de la menace nucléaire aussi longtemps qu'un camp fait tout pour diaboliser l'autre. La diabolisation de la Russie et de son dirigeant par les New York Times, Washington Post, CNN, Fox News, et le reste du ministère de la Propagande américaine, par la quasi totalité de la Chambre et du Sénat, et par la Maison Blanche, rend impossible la réduction de la menace de guerre nucléaire.
Le peuple américain et le monde entier doivent comprendre que la menace à la vie sur terre réside à Washington et que jusqu'à ce que Washington ait fondamentalement et totalement changé, cette menace restera comme la pire menace à la vie sur la terre. Le réchauffement climatique peut disparaître en un instant dans l'hiver nucléaire.

Auteur: Paul Craig Roberts

Info: 16 avril 2015

[ parano ] [ oppression ] [ guerre atomique ]

 

Commentaires: 0

capitalisme

Les élites ne nous sauveront pas
L’attaque, qui dure depuis quatre décennies contre nos institutions démocratiques par les grandes entreprises, les a laissé faibles et largement dysfonctionnelles. Ces institutions, qui ont renoncé à leur efficacité et à leur crédibilité pour servir les intérêts des entreprises, auraient dû être notre pare-feu. Au lieu de quoi, elles chancellent sous l’assaut.
Les syndicats sont une force du passé. La presse est transformée en industrie et suscite la méfiance. Les universités ont été purgées des chercheurs dissidents et indépendants qui critiquent le néolibéralisme et dénoncent la décomposition des institutions démocratiques et des partis politiques. La radio-télévision publique et les arts ne sont plus financés et sont laissés moribonds. Les tribunaux ont été noyautés par des juges dont la carrière juridique s’est passé à servir le pouvoir des grandes sociétés, une tendance dans les nominations qui s’est poursuivie sous Barack Obama. L’argent a remplacé le vote, ce qui explique comment quelqu’un d’aussi non qualifié comme Betsy DeVos peut s’acheter un siège dans un ministère. Le parti démocrate, plutôt que de rompre ses liens avec Wall Street et les grandes entreprises, attend naïvement en coulisse de profiter d’une débâcle de Trump.
"Le plus grand atout de Trump est un parti démocrate décadent, désemparé, narcissique, inféodé aux entreprises et belliciste, m’a dit Ralph Nader lorsque je l’ai joint au téléphone à Washington. Si la stratégie démocrate est d’attendre Godot, attendre que Trump implose, nous sommes en difficulté. Et tout ce que vous dites des démocrates, vous pouvez aussi le dire de l’AFL-CIO [le principal regroupement syndical américain, NdT]. Ils ne contrôlent pas le train."
La perte de crédibilité dans les institutions démocratiques a jeté le pays dans une crise tant existentielle qu’économique. Des dizaines de millions de gens ne font plus confiance aux tribunaux, aux universités et à la presse, qu’ils voient avec raison comme les organes des élites des grandes sociétés. Ces institutions sont traditionnellement les mécanismes par lesquels une société est capable de démasquer les mensonges des puissants, de critiquer les idéologies dominantes et de promouvoir la justice. Parce que les Américains ont été amèrement trahis par leurs institutions, le régime de Trump peut attaquer la presse comme le "parti d’opposition", menacer de couper le financement des universités, se moquer d’un juge fédéral comme d’un "soi-disant juge" et dénoncer une ordonnance d’un tribunal comme "scandaleuse".
La dégradation des institutions démocratiques est la condition préalable à la montée de régimes autoritaires ou fascistes. Cette dégradation a donné de la crédibilité à un menteur pathologique. L’administration Trump, selon un sondage de l’Emerson College, est considérée comme fiable par 49% des électeurs inscrits tandis que les médias ne sont tenus pour fiables que par 39% des électeurs inscrits. Une fois que les institutions démocratiques américaines ne fonctionnent plus, la réalité devient n’importe quelle absurdité que publie la Maison Blanche.
La plupart des règles de la démocratie ne sont pas écrites. Ces règles déterminent le comportement public et garantissent le respect des normes, des procédures et des institutions démocratiques. Le président Trump, à la grande joie de ses partisans, a rejeté cette étiquette politique et culturelle.
Hannah Arendt, dans Les origines du totalitarisme, notait que lorsque les institutions démocratiques s’effondrent, il est "plus facile d’accepter des propositions manifestement absurdes que les anciennes vérités qui sont devenues de pieuses banalités". Le bavardage des élites dirigeantes libérales ["progressistes", NdT] sur notre démocratie est lui-même une absurdité. "La vulgarité, avec son rejet cynique des normes respectées et des théories admises", écrit-elle, infecte le discours politique. Cette vulgarité est "confondue avec le courage et un nouveau style de vie".
"Il détruit un code de comportement après l’autre, dit Nader de Trump. Il est rendu si loin dans cette façon de faire sans en payer le prix. Il brise les normes de comportement – ce qu’il dit des femmes, la commercialisation de la Maison Blanche, "je suis la loi"."
Nader m’a dit qu’il ne pensait pas que le parti républicain se retournera contre Trump ou envisagera la destitution, à moins que sa présidence ne semble menacer ses chances de conserver le pouvoir aux élections de 2018. Nader voir le parti démocrate comme "trop décadent et incompétent" pour contester sérieusement Trump. L’espoir, dit-il, vient des nombreuses protestations qui ont été organisées dans les rues, devant les mairies par les membres du Congrès et sur des points chauds comme Standing Rock. Il peut aussi venir des 2.5 millions de fonctionnaires du gouvernement fédéral si un nombre significatif d’entre eux refuse de coopérer avec l’autoritarisme de Trump.
"Le nouveau président est tout à fait conscient du pouvoir détenu par les fonctionnaires civils, qui prêtent serment d’allégeance à la constitution des États-Unis, et non à un président ou à une administration", écrit Maria J. Stephan, co-auteure de Why Civil Resistance Works dans le Washington Post. "L’un des premiers actes de Trump en tant que président a été un gel général du recrutement fédéral qui touche tous les nouveaux postes et les postes existants exceptés ceux liés à l’armée, à la sécurité nationale et à la sécurité publique. Même avant l’investiture de Trump, la Chambre des représentants dominée par les Républicains a réinstauré une obscure règle de 1876 qui autoriserait le Congrès à réduire les salaires des employés fédéraux individuels. C’était un avertissement clair à ceux qui sont au service du gouvernement de garder le profil bas. Le licenciement très médiatisé par Trump du procureur général par intérim Sally Yates, qui a refusé de suivre l’interdiction d’immigration du président, a envoyé des ondes de choc dans la bureaucratie."
Un soulèvement populaire, soutenu à l’échelle nationale, d’obstruction et de non-coopération non violente est la seule arme qui reste pour sauver la république. Les élites répondront une fois qu’elles auront peur. Si nous ne leur faisons pas peur, nous échouerons.
"La résilience des institutions démocratiques a été encourageante – les tribunaux, les manifestations, dit Nader. Trump se retourne contre lui-même. Il outrage les gens dans tout le pays sur la base de la race, du genre, de la classe, de la géographie, de ses mensonges, ses fausses déclarations, son narcissisme, son manque de connaissances, sa désinvolture et son désir morbide de répondre aux insultes avec des tweets. Il n’est pas un autocrate intelligent. Il s’affaiblit chaque jour. Il permet à l’opposition d’avoir plus d’effet que d’ordinaire."
"La plupart des chefs d’État dictatoriaux s’occupent d’idéologies abstraites – la patrie et ainsi de suite, poursuit Nader. Il n’en fait pas beaucoup sur ce plan. Il attaque personnellement, vise bas sur l’échelle de la sensualité. Vous êtes un faux. Vous êtes un perdant. Vous êtes un escroc. Cela pique davantage les gens, en particulier lorsqu’il le fait en se basant sur le genre, la race et la religion. Donald Trump est ce qu’il y a de mieux pour le réveil démocratique."
Nader dit que Trump sera pourtant capable de consolider son pouvoir si nous subissons un nouvel attentat terroriste catastrophique ou s’il y a une débâcle financière. Les régimes dictatoriaux ont besoin d’une crise, qu’elle soit réelle ou fabriquée, pour justifier la suspension totale des libertés civiles et exercer un contrôle incontesté.
"S’il y a un attentat terroriste apatride sur les États-Unis, il est capable de concentrer une quantité de pouvoir dans la Maison Blanche contre les tribunaux et contre le Congrès, avertit Nader. Il fera des boucs émissaires de ceux qui s’opposent à lui. […] Cela affaiblira toute résistance et toute opposition."
La tension entre la Maison Blanche de Trump et des segments de l’establishment, y compris les tribunaux, la communauté du renseignement et le Département d’État, a été mal interprétée comme une preuve que les élites veulent éloigner Trump du pouvoir. Si les élites peuvent établir des relations avec le régime de Trump pour maximiser leurs profits et protéger leurs intérêts personnels et de classe, elles supporteront volontiers l’embarras d’avoir un démagogue dans le bureau ovale.
L’État des grandes entreprises, ou l’État profond, n’a pas non plus d’engagement à l’égard de la démocratie. Ses forces ont évidé les institutions démocratiques pour les rendre impuissantes. La différence entre le pouvoir des entreprises et le régime de Trump est que le pouvoir des entreprises a cherché à maintenir la fiction de la démocratie, y compris la déférence polie accordée en public aux institutions démocratiques. Trump a effacé cette déférence. Il a plongé le discours politique dans les égouts. Trump ne détruit pas les institutions démocratiques. Elles avaient été détruites avant qu’il entre en fonction.
Même les régimes fascistes les plus virulents ont construit des alliances fragiles avec les élites conservatrices et d’affaires traditionnelles, qui considéraient souvent les fascistes comme maladroits et grossiers.
"Nous n’avons jamais connu un régime fasciste idéologiquement pur", écrit Robert O. Paxton dans The Anatomy of Fascism. "En effet, la chose semble à peine possible. Chaque génération de chercheurs sur le fascisme a noté que les régimes reposaient sur une sorte de pacte ou d’alliance entre le parti fasciste et des forces conservatrices puissantes. Au début des années 1940, le réfugié social-démocrate Franz Neumann a soutenu dans son classique Behemoth qu’un ‘cartel’ formé du parti, de l’industrie, de l’armée et de la bureaucratie régnait sur l’Allemagne nazie, tenu ensemble uniquement par ‘le profit, le pouvoir, le prestige et, surtout, la peur’."
Les régimes fascistes et autoritaires sont gouvernés par de multiples centres de pouvoir qui sont souvent en concurrence les uns avec les autres et ouvertement antagonistes. Ces régimes, comme l’écrit Paxton, reproduisent le "principe du chef" de manière à ce qu’il "descende en cascade le long de la pyramide sociale et politique, créant une foule de petits Führer et Duce en état de guerre hobbesienne de tous contre tous."
Les petits Führer et Duce sont toujours des bouffons. Des démagogues aussi plastronnant ont consterné les élites libérales dans les années 1930. Le romancier allemand Thomas Mann a écrit dans son journal deux mois après l’arrivée des nazis au pouvoir qu’il avait assisté à une révolution "sans idées qui la fondaient, contre les idées, contre tout ce qui est plus noble, meilleur, décent, contre la liberté, la vérité et la justice". Il déplorait que la "lie commune" ait pris le pouvoir "accompagnée de la grande joie d’une bonne partie des masses". Les élites d’affaires en Allemagne n’ont peut-être pas aimé cette "lie", mais elles étaient disposées à travailler avec elle. Et nos élites d’affaires feront la même chose aujourd’hui.
Trump, un produit de la classe des milliardaires, conciliera ces intérêts privés, parallèlement à la machine de guerre, pour construire une alliance mutuellement acceptable. Les laquais au Congrès et dans les tribunaux, les marionnettes des grandes entreprises, seront, je m’y attends, pour la plupart dociles. Et si Trump est destitué, les forces réactionnaires qui cimentent l’autoritarisme en place trouveront un champion dans le vice-président Mike Pence, qui place fiévreusement des membres de la droite chrétienne dans tout le gouvernement fédéral.
"Pence est le président parfait pour les chefs républicains qui contrôlent le Congrès, dit Nader. Il est juste hors du casting principal. Il regarde la partie. Il parle de la partie. Il joue son rôle. Il a connu la partie. Ça ne les dérangerait pas si Trump quittait sa fonction subitement ou s’il devait démissionner. […]"
Nous sommes aux stades crépusculaires du coup d’État permanent des grandes entreprises entamé il y a quarante ans. Il ne nous reste pas grand-chose pour travailler. Nous ne pouvons pas faire confiance à nos élites. Nous devons nous mobiliser pour mener des actions de masse répétées et soutenues. Attendre que l’establishment décapite Trump et restaure la démocratie serait un suicide collectif.

Auteur: Hedges Chris

Info: 12 février 2017, Source Truthdig

[ Usa ] [ vingt-et-unième siècle ]

 

Commentaires: 0

manipulation des masses

De l'hégémonie du dollar au réchauffement climatique : mondialisation, glyphosate et doctrine du consentement.

Depuis l'abandon des accords de Bretton Woods en 1971, il y a eu un changement tectonique continu en Occident. Qui s'est accéléré lorsque l'URSS a pris fin et a abouti à la " mondialisation néolibérale " que nous connaissons aujourd'hui.

Dans le même temps, une campagne sans précédent a été menée pour réinventer le consensus social en Occident. Une partie de cette stratégie consistant à amener les populations des pays occidentaux à se focaliser sur le "réchauffement climatique", l'"équité entre les sexes" et l'"antiracisme". Les effets dévastateurs et les injustices causés par le capitalisme mondialisé et le militarisme qui en découle restant largement inexprimé pour la masse des gens.

Tel est l'argument présenté par Denis Rancourt, chercheur à l'Ontario Civil Liberties Association, dans un nouveau rapport. M. Rancourt est un ancien professeur titulaire de physique à l'Université d'Ottawa au Canada et auteur de : "La géoéconomie et la géo-politique conduisent à des époques successives de mondialisation prédatrice et d'ingénierie sociale : Historical emergence of climate change, gender equity, and antiracism as state doctrines' (avril 2019)."

Dans ce rapport, Rancourt fait référence au livre de Michael Hudson de 1972 intitulé "Super Imperialism" : The Economic Strategy of American Empire" pour aider à expliquer le rôle clé du maintien de l'hégémonie du dollar et l'importance du pétrodollar dans la domination mondiale des États-Unis. Outre l'importance du pétrole, M. Rancourt soutient que les États-Unis ont un intérêt existentiel à faire en sorte que les opioïdes soient commercialisés en dollars américains, un autre grand produit mondial. Ce qui explique en partie l'occupation américaine de l'Afghanistan. Il souligne également l'importance de l'agro-industrie et de l'industrie de l'armement américaines pour la réalisation des objectifs géostratégiques des États-Unis.

Depuis la chute de l'URSS en 1991, M. Rancourt indique que les campagnes de guerre américaines ont, entre autres, protégé le dollar américain de l'abandon, détruit des nations en quête de souveraineté contre la domination américaine, assuré le commerce de l'opium, renforcé leur contrôle du pétrole et entravé l'intégration eurasiatique. En outre, nous avons vu certains pays faire face à un bombardement de sanctions et d'hostilité dans une tentative de détruire des centres de production d'énergie que les États-Unis ne contrôlent pas, notamment la Russie.

Il souligne également les impacts dans les pays occidentaux, y compris : la perte relative systématique du rang économique de la classe moyenne, la montée du sans-abrisme urbain, la décimation de la classe ouvrière industrielle, les méga-fusions des entreprises, la montée des inégalités, le démantèlement du bien-être, la spéculation financière, les salaires qui stagnent, les dettes, la dérégulation et les privatisation. De plus, l'assouplissement accru de la réglementation des aliments et des médicaments a entraîné une augmentation spectaculaire de l'utilisation de l'herbicide glyphosate, qui s'est accompagnée d'une recrudescence de nombreuses maladies et affections chroniques.

Face à cette dévastation, les pays occidentaux ont dû obtenir le maintien du consentement de leurs propres populations. Pour aider à expliquer comment cela a été réalisé, Rancourt se concentre sur l'équité entre les sexes, l'antiracisme et le réchauffement climatique en tant que doctrines d'État qui ont été utilisées pour détourner l'attention des machinations de l'empire américain (et aussi pour empêcher la prise de conscience de classe). J'ai récemment interrogé Denis Rancourt sur cet aspect de son rapport.

CT : Pouvez-vous nous en dire un peu plus sur vous et sur la façon dont vous avez produit ce rapport ? Quel est son objectif ?

DR : Ancien professeur de physique, scientifique de l'environnement et défenseur des droits civils, je travaille actuellement comme chercheur pour l'Ontario Civil Liberties Association (ocla.ca). Au cours d'une conversation que j'ai eue avec le directeur exécutif de l'OCLA au sujet des droits civils, nous avons identifié plusieurs phénomènes sociaux et économiques importants qui semblaient liés au début des années 1990. J'ai donc fini par m'installer pour faire ce "gros boulot", du point de vue de la recherche.

Bien que nous ne manquions pas d'intellectuels et d'experts engagés pour guider notre perception à tort, mes recherches démontrent qu'il existe un lien entre la montée en flèche de la répression et de l'exploitation à grande échelle des populations nationales et l'accélération d'une mondialisation agressive et abusive.

CT : Dans votre rapport, vous avez décrit les conséquences de l'abandon de Bretton Woods et de la dissolution de l'URSS en termes d'hégémonie du dollar, du militarisme américain et des effets dévastateurs de la "mondialisation néolibérale" tant pour les États nations que pour les citoyens.

Il ne fait guère de doute que les analystes russes et chinois comprennent bien ce que j'ai exposé dans mon rapport. Par exemple, en prévision de la guerre commerciale de Trump, le discours prononcé en avril 2015 par le major-général Qiao Liang de l'Armée populaire de libération du peuple devant le Comité central et le bureau du gouvernement du Parti communiste chinois, comprenait ce qui suit :

"Depuis ce jour [dissolution de Bretton Woods], un véritable empire financier a émergé, l'hégémonie du dollar américain s'est établie, et nous sommes entrés dans une véritable ère de monnaie de papier. Il n'y a pas de métal précieux derrière le dollar américain. Le crédit du gouvernement est le seul soutien du dollar américain. Les États-Unis tirent profit du monde entier. Cela signifie que les Américains peuvent obtenir des richesses matérielles du monde entier en imprimant un morceau de papier vert. (...) Si nous reconnaissons [maintenant] qu'il existe un cycle de l'indice du dollar américain [ponctué de crises machinées, dont la guerre] et que les Américains utilisent ce cycle pour faire la récolte dans les autres pays, alors nous pouvons conclure que le moment était venu pour eux d'en faire autant en Chine..."

CT : Vous discutez de la nécessité pour les États d'obtenir le consentement : la nécessité de pacifier, d'hypnotiser et d'aligner les populations pour poursuivre la mondialisation ; plus précisément, la nécessité de détourner l'attention de la violence structurelle des politiques économiques et de la violence réelle du militarisme. Pouvez-vous nous dire comment la question du réchauffement climatique est liée à cela ?

DR : Que la soi-disant "crise climatique" soit réelle, exagérée ou fabriquée de toutes pièces, il est clair, d'après les données de mon rapport, que l'éthique du réchauffement climatique a été conçue et manipulée à l'échelle mondiale et qu'elle bénéficie aux exploiteurs de l'économie du carbone et, plus indirectement, à l'État.

Par exemple, l'une des études que j'ai passées en revue montre qu'une multiplication des reportages sur le réchauffement climatique dans les médias grand public s'est soudainement produite au milieu des années 2000, dans tous les grands médias, au moment même où les financiers et leurs acolytes, comme Al Gore, ont décidé de créer et de gérer une économie mondiale du carbone. Cette campagne médiatique s'est poursuivie depuis lors et l'éthique du réchauffement climatique a été institutionnalisée.

Les programmes de piégeage du carbone ont dévasté les communautés locales sur tous les continents occupés. En fait, les programmes de réduction des émissions de carbone - des parcs éoliens à la récolte de biocarburants, en passant par la production industrielle de batteries, les installations de panneaux solaires, l'extraction de l'uranium, la construction de méga barrages hydroélectriques, etc. on accéléré les destructions d'habitats.

Pendant ce temps, la guerre économique et militaire fait rage, le glyphosate est déversé dans l'écosphère à un rythme sans précédent (déversé sur des cultures mercantiles résistant aux phytocides GM), des génocides actifs sont en cours (Yémen), les États-Unis se désistent de façon unilatérale et imposent une course aux armes aux machines nucléaires et aux armes nucléaires de prochaine génération ; des prêts extortionnels sont accordés par les Etats-Unis qui ont transformé l'usage de leurs terres au plan national, et des enfants scolarisés développent des crises psychotiques afin de faire "bouger les gouvernements" pour qu'ils "agissent" contre le climat.

Au début des années 1990, une conférence mondiale sur l'environnementalisme climatique fut une réponse expresse à la dissolution de l'Union soviétique. Cela faisait partie d'un projet de propagande globale visant à masquer la nouvelle vague de mondialisation accélérée et prédatrice qui se déchaînait alors que l'URSS était définitivement sortie du droit chemin.

CT : Que pensez-vous de Greta Thunberg et du mouvement qui l'entoure ?

DR : C'est triste et pathétique. Ce mouvement témoigne du succès du projet mondial de propagande que je décris dans mon rapport. Le mouvement est aussi un indicateur du degré d'enracinement du totalitarisme dans les sociétés occidentales, où les individus, les associations et les institutions perdent leur capacité de pensée indépendante pour détourner la société des des desseins d'une élite d'occupation. Les individus (et leurs parents) deviennent la police de la moralité au service de cet "environnementalisme".

CT : Vous parlez aussi de l'émergence de l'égalité des sexes (féminisme de la troisième vague) et de l'antiracisme comme doctrines d'État. Pouvez-vous dire quelque chose à ce sujet ?

DR : Dans mon rapport, j'utilise des documents institutionnels historiques et des données sociétales pour démontrer qu'une triade de "religions d'État" a été engendrée à l'échelle mondiale et qu'elle est apparue au moment opportun après la dissolution de l'Union soviétique. Cette triade se compose d'alarmisme climatique, d'une vision tunnel exagérée de l'équité entre les sexes et d'une campagne antiraciste machinée axée sur les pensées, le langage et les attitudes.

Ces idéologies étatiques ont été conçues et propulsées via les efforts de l'ONU et les protocoles signés qui en ont résulté. Le milieu universitaire de l'Ouest a adopté et institutionnalisé le programme avec enthousiasme. Les médias grand public ont fait la promotion religieuse de l'ethos nouvellement créé. Les partis politiques ont largement appliqué des quotas accrus de représentants élus par sexe et par race.

Ces processus et ces idées ont servi à apaiser, à assouplir, rassembler et à occuper l'esprit occidental, en particulier chez les classes moyennes supérieures, professionnelles et de gestion et les élites des territoires économiquement occupés, mais n'ont rien fait pour atténuer les formes de racisme et de misogynie les plus violentes et répandues dans le monde en raison de la mondialisation prédatrice et du militarisme.

Ironiquement, les atteintes globales à la dignité humaine, à la santé humaine et à l'environnement ont été proportionnelles aux appels systématiques et parfois criards à l'équité entre les sexes, à la lutte contre le racisme et à l'"action" climatique. Tout l'édifice de ces "religions d'Etat" ne laisse aucune place aux conflits de classes nécessaires et sape expressément toute remise en cause des mécanismes et des conséquences de la mondialisation.

CT : Pouvez-vous nous parler des Gilets Jaunes, de Brexit et du phénomène électoral Trump ?

DR : Combiner une mondialisation agressive, une prédation financière constante, l'éviscération des classes ouvrières et moyennes occidentales et un discours désinvolte sur le changement climatique, l'antiracisme et l'équité entre les sexes fait quelque chose ne peut qu'arriver. Le géographe français Christophe Guilluy a prédit ces réactions de façon assez détaillée, ce qui n'est pas difficile à comprendre. Ce n'est pas un hasard si les classes populaires et moyennes qui se révoltent critiquent les récits de la crise climatique, de l'antiracisme et de l'équité entre les sexes, d'autant que les médias grand public les présentent comme racistes, misogynes et ignorants des sciences.

Il semble que toute classe qui s'oppose à sa propre destruction soit accusée d'être peuplée de gens racistes et ignorants qui ne voient pas que le salut réside dans un monde géré par le carbone et globalisé. Il devient donc impératif de fermer tous les lieux où un tel "lot d'ignorants" pourrait communiquer ses vues, tenter de s'organiser et ainsi menacer l'ordre social dominant.

Auteur: Todhunter Colin

Info: Counterpunch.org. Trad Mg

[ géopolitique ] [ ingénierie sociale ]

 

Commentaires: 0

Ajouté à la BD par miguel

annales

Les régimes institutionnels de la mémoire

On pourrait distinguer la reproduction biologique (un individu se reproduit en individus de la même espèce), l’élevage (on sélectionne par la reproduction un profil génétique donné), la domestication (les êtres humains éduquent des animaux, transmettant par le dressage pratiques et comportements) et enfin l’éducation où des individus d’une espèce enseignent à leurs progénitures leurs propres acquis. La domestication n’est pas l’éducation car ce ne sont pas les animaux qui dressent leurs petits, mais leurs maîtres.

La culture commence quand, au delà du patrimoine génétique, des contenus, pratiques et savoir faire sont transmis d’une génération à une autre. Autrement dit, quand il s’agit de passer de l’élevage à l’éducation, de la répétition des capacités propres à l’espèce à la transmission des contenus acquis.

Cela implique d’une part la prise de conscience d’un déjà-là constitué et d’autre part la mise en place d’outils et procédures pour l’entretenir et donc le transmettre. Il s’agit d’avoir des institutions du sens qui régissent, au niveau d’une société ou d’un collectif, les pratiques culturelles et les modalités de leur transmission.

À travers la notion d’institution, nous visons trois caractéristiques principales : la tradition qui sanctionne l’existence d’un déjà-là ("c’est ainsi que l’on a toujours fait"), une normalisation, qui ajuste et régule ses modalités d’expression selon certains critères ("c’est ainsi qu’il convient de faire"), une transmission qui assure une pérennisation de la tradition, de cet héritage reçu et donc à léguer ("c’est ce qu’il faut continuer de faire"). Les institutions du sens sont donc toujours traditionnelles et normatives, garantes de la culture comme acquis constitué et à transmettre. On retrouve ainsi les institutions scolaires, patrimoniales, culturelles, etc. De la langue qu’on apprend à maîtriser même quand elle est sa langue maternelle pour qu’elle devienne sa langue de culture et de réflexion [Judet & Wisman 2004], aux pratiques traditionnelles (cuisines, artisanat) en passant par les pratiques savantes, la culture est un déjà-là qui s’autonomise en tradition normée pour pouvoir être transmise. C’est le rôle et la mission des institutions du sens que d’accompagner la constitution de la tradition normée et d’en assurer la transmission.

La tension propre à ces institutions sera le conflit permanent entre d’une part la normalisation des contenus et d’autre part une transmission autorisant leur appropriation et transformation. Comment transformer sans trahir, comment transmettre sans figer, est la question que doit traiter toute institution du sens. Si la norme donne les conditions de la répétition et de la conservation du déjà-là, l’invention et l’appropriation seront les conditions pour que ce déjà-là reste accessible, signifiant, exploitable voire utile dans l’environnement contemporain. Une norme formelle et dogmatique rend le déjà-là sans intérêt, une appropriation dérégulée revient à une perte de mémoire et de sens.

Si les institutions du sens reposent en leur possibilité sur la constitution d’un déjà-là et sa reconnaissance comme tel, il en ressort qu’on en passe nécessairement par une institutionnalisation de la mémoire qui a pour fonction de fixer le périmètre du déjà-là, de définir les règles de son accroissement et de son enrichissement, et de proposer des modalités de sa consultation, partage et transmission. Les institutions de la mémoire seront donc des instances nécessaires à la reconnaissance d’un déjà-là constitué et à sa pérennisation.

Il y a plusieurs manières de mettre en place de telles institutions et d’en fixer les missions et les contours. Notre civilisation, au cours de son histoire longue, en distingue selon nous quatre modalités principales [Bachimont 2017] : la mémoire de la preuve (les archives), celle de l’œuvre (les bibliothèques et les musées), celle de l’information (les centres de documentation et de ressources) et enfin l’identité culturelle (le patrimoine).

Aussi anciennes que l’écriture elle-même, les archives [Delsalle 1998] sont avant tout une mémoire de l’événement, une trace de ce qui s’est passé, la permanence de cette dernière permettant de pallier l’évanescence de l’événement. L’archive possède une relation organique à ce dont elle est archive : causée par l’événement dont elle consigne la mémoire, l’archive est le signe, par son existence même, de l’événement et du fait qu’il a bien eu lieu. À travers une telle relation organique, on veut insister sur le fait que, même si l’archive est un document produit par des collectifs culturels, elle est néanmoins provoquée, produite quasi naturellement par l’événement qu’elle relate. Autrement dit, elle n’est pas altérée par un processus interprétatif qui viendrait se mettre en l’événement et sa trace. Pour reprendre la belle image de Marie-Anne Chabin [2000], "Les archives procèdent de l’activité de leur auteur comme les alluvions découlent du fleuve", comme si elles consistaient en un processus naturel.

Ainsi, plus tekmerion que semeion, indice que symbole ou icône *, même si en pratique, il faut bien en passer par l’interprétation et les conventions qui lui sont inhérentes, l’archive peut être la preuve que recherchent l’historien, le juge ou l’enquêteur. Mais, puisque l’événement produit le document, ce dernier ne peut être une preuve pleine et entière que si le seul moyen de produire le document qui deviendra l’archive est que l’événement se soit produit. Par exemple, l’acte notarié est ainsi conçu que la seule manière d’avoir un acte est que l’événement associé (une transaction par exemple) ait eu lieu. Sinon, c’est un faux, c’est-à-dire un document établi pour faire croire que l’événement a eu lieu. L’archive officielle est donc une preuve déductive (si on dispose de l’archive, alors l’événement a eu lieu), les autres ont plutôt une valeur abductive plutôt que déductive (si on dispose de l’archive, la cause la plus probable ou la plus simple est que l’événement ait eu lieu mais on en reste à une présomption). C’est la raison pour laquelle l’authenticité, au sens où le document est bien ce qu’il prétend être, est si fondamentale pour les archives. C’est en effet cette dernière qui permet de retracer le schéma causal qui a produit le document à rebours, en remontant à l’événement.

La seconde modalité ou institution de mémoire mobilise les traces du génie humain, autrement dit ce qui reflète les productions de l’esprit et de la culture. Il ne s’agit pas tant d’avoir des preuves de l’événement que de disposer des traces de ce qui a été pensé ou de ce qui fut créé. L’enjeu n’est pas de savoir ce qui s’est passé, mais de connaître comment cela a été pensé. Du monde comme événement (le fait relaté par un témoignage), on remonte à la culture comme monument (le témoignage comme fait). L’authenticité n’est plus ici gagée par le lien organique entre l’événement et le document, mais entre ce dernier et son auteur. L’authenticité reposera sur l’attribution de son auteur et la détermination du contexte de création pour pouvoir en déduire le sens qu’on peut lui conférer. Les institutions en charge des œuvres sont les bibliothèques, les musées, les conservatoires. L’enjeu n’est pas tant de connaître le passé pour lui-même, mais de se reposer sur les œuvres du passé pour appréhender une part des possibilités du génie humain, une province du sens et de l’être. Les œuvres du passé n’appartiennent pas à un passé révolu, mais au présent, un présent permanent et continuel car les œuvres, sitôt produites, restent un témoignage vivant qu’il est toujours temps et opportun de recevoir. Cela ne veut pas dire qu’il n’est pas important de prendre en compte leur historicité ni leur contexte originel, mais qu’en tant que créations humaines, il est toujours actuel et pertinent pour les êtres humains de les recevoir, accueillir et interpréter.

La troisième institution de la mémoire est celle du savoir, de la connaissance et de l’information. Ni preuve ni œuvre, l’information est le savoir anonyme, sans auteur, apportant la connaissance d’un fait, d’un procédé ou d’un raisonnement possibles. Information de personne, mais information pour tous, l’information prend sa valeur à partir de l’institution qui la produit, ou le processus qui la constitue. De l’information savante gagée par la publication scientifique et son système de relecture par les pairs, à l’information journalistique fondée sur une régulation spécifique, en passant par l’institution scolaire et ses programmes, l’information doit être produite par une institution qui lui sert de caution pour être reçue comme telle et valoir comme connaissance. On comprend qu’une telle notion d’information est le cœur même des activités relevant de ce qu’on a appelé par la suite "l’information scientifique et technique", et qu’elle se formalisa lors de la révolution industrielle [Briet 1951]. Une dimension spécifique de l’information, et faisant rupture avec les figures plus anciennes de l’archive et de la bibliothèque (les preuves et les œuvres), est l’indépendance ou plutôt l’indifférence au support. Peu importe que le document soit un article ou un livre, un journal ou une encyclopédie, numérique ou matériel, il n’importe que par l’information qu’il détient. Derrière cette indifférence se cache un présupposé selon lequel le contenant n’influe pas sur le contenu, que le support matériel ne conditionne pas l’intelligibilité de l’inscription consignée sur le support. Présupposé qu’il est facile de réfuter, aucun changement de support ne pouvant être neutre quant à l’intelligibilité du contenu [Bachimont 2010]. Mais on peut voir derrière ce présupposé, non une erreur quant à la réalité de la dépendance du contenu au contenant, mais l’intérêt exclusif pour un invariant sémantique commun aux différentes expressions rencontrées sur différents supports, où l’on s’intéresse au fait, par exemple, que l’eau bout à 100°, indépendamment de l’expression qui nous a permis d’en prendre connaissance.

Cette conception abstraite du support de l’information entraîne un intérêt exclusif à l’inscription comme expression, à sa grammaire et à son lexique. Privilégiant la forme sur la matière, l’information a un tropisme naturel vers la formalisation et la circulation : formalisation car il s’agit de contrôler l’information uniquement à partir de sa forme, indépendamment de son support ; circulation parce que cette indifférence au support permet en principe la migration d’un support à un autre sans altération de l’information. Cela aboutit fort logiquement aux initiatives comme le Web des données (ou Web sémantique) où le formalisme de l’expression assure les conditions de son interprétation et de sa circulation.

Enfin, le dernier régime est celui de l’identité culturelle ou celui du patrimoine. Ce régime est le plus indéterminé des quatre considérés ici dans la mesure où il mobilise le rapport fondamental à la mémoire et à la culture : il concerne tout objet permettant à un collectif d’accéder à une mémoire, à la mémoire de son identité collective. Le patrimoine est donc, pour utiliser le vocabulaire de Gilbert Simondon [2005], ce qui permet l’individuation d’une identité collective et la constitution d’objets comme vecteurs de cette dernière. Le patrimoine est donc un jeu triple entre des objets, des individus, et un collectif tissant ces derniers ensemble. Aussi tout objet peut-il, en principe, devenir patrimonial, les règles de l’individuation n’étant pas fixées a priori. On ne peut que constater a posteriori que tels ou tels objets "font patrimoine".

L’identité collective est un déjà-là revendiqué et assumé par le collectif. Il s’agit d’une mémoire reconnue comme étant la sienne et associée à un objet qui l’incarne et la porte. Mais la seule caractéristique de cet objet est qu’il est distingué dans sa capacité de porter un souvenir, d’incarner une mémoire, de véhiculer un sens partagé. En ce sens, l’objet patrimonial est un mnémophore, un porteur de mémoire, en plagiant le néologisme naguère proposé par Krzystof Pomian, le sémiophore [1996].

L’objet patrimonial, le mnémophore, ne s’oppose pas aux autres régimes de mémoire que nous avons distingués, mais les intègre comme des modalités possibles de sa déclinaison. En effet, les preuves, œuvres et informations sont porteuses de mémoire et permettent par leur entremise un rapport au passé.

Auteur: Bachimont Bruno

Info: https://journals.openedition.org/signata/2980. *CS Peirce (1978) Écrits sur le signe. Paris, Seuil.

[ conservatisme ] [ pré-mémétique ] [ damnatio memoriae ] [ diachronie ] [ sciences ] [ humaines tiercités ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel

aliénisme

La cause de la dépression n’est probablement pas celle que vous pensez

La dépression a souvent été imputée à de faibles niveaux de sérotonine dans le cerveau. Cette réponse est insuffisante, mais des alternatives apparaissent et modifient notre compréhension de la maladie.

Les gens pensent souvent savoir ce qui cause la dépression chronique. Des enquêtes indiquent que plus de 80 % de la population attribue la responsabilité à un " déséquilibre chimique " dans le cerveau. Cette idée est répandue dans la psychologie populaire et citée dans des documents de recherche et des manuels de médecine. L'écoute de Prozac, un livre qui décrit la valeur révolutionnaire du traitement de la dépression avec des médicaments visant à corriger ce déséquilibre, a passé des mois sur la liste des best-sellers du New York Times.

La substance chimique cérébrale déséquilibrée en question est la sérotonine, un neurotransmetteur important aux effets légendaires de " bien-être ". La sérotonine aide à réguler les systèmes cérébraux qui contrôlent tout, de la température corporelle au sommeil, en passant par la libido et la faim. Depuis des décennies, il est également présenté comme le produit pharmaceutique le plus efficace dans la lutte contre la dépression. Les médicaments largement prescrits comme le Prozac (fluoxétine) sont conçus pour traiter la dépression chronique en augmentant les niveaux de sérotonine.

Pourtant, les causes de la dépression vont bien au-delà de la carence en sérotonine. Les études cliniques ont conclu à plusieurs reprises que le rôle de la sérotonine dans la dépression avait été surestimé. En effet, l’ensemble de la théorie du déséquilibre chimique pourrait être erroné, malgré le soulagement que le Prozac semble apporter à de nombreux patients.

Une revue de la littérature parue dans Molecular Psychiatry en juillet a sonné le glas le plus récent et peut-être le plus fort de l’hypothèse de la sérotonine, du moins dans sa forme la plus simple. Une équipe internationale de scientifiques dirigée par Joanna Moncrieff de l'University College London a examiné 361 articles dans six domaines de recherche et en a soigneusement évalué 17. Ils n’ont trouvé aucune preuve convaincante que des niveaux plus faibles de sérotonine provoquaient ou étaient même associés à la dépression. Les personnes souffrant de dépression ne semblaient pas avoir une activité sérotoninergique inférieure à celle des personnes non atteintes. Les expériences dans lesquelles les chercheurs abaissaient artificiellement les niveaux de sérotonine des volontaires n’entraînaient pas systématiquement une dépression. Les études génétiques semblaient également exclure tout lien entre les gènes affectant les niveaux de sérotonine et la dépression, même lorsque les chercheurs essayaient de considérer le stress comme un cofacteur possible.

" Si vous pensez toujours qu'il s'agissait simplement d'un déséquilibre chimique de la sérotonine, alors oui, c'est assez accablant", a déclaré Taylor Braund , neuroscientifique clinicien et chercheur postdoctoral au Black Dog Institute en Australie, qui n'a pas participé à l'étude. nouvelle étude. (" Le chien noir " était le terme utilisé par Winston Churchill pour désigner ses propres humeurs sombres, que certains historiens pensent être une dépression.)

La prise de conscience que les déficits de sérotonine en eux-mêmes ne provoquent probablement pas la dépression a amené les scientifiques à se demander ce qui pouvait en être la cause. Les faits suggèrent qu’il n’y a peut-être pas de réponse simple. En fait, cela amène les chercheurs en neuropsychiatrie à repenser ce que pourrait être la dépression.

Traiter la mauvaise maladie

L’intérêt porté à la sérotonine dans la dépression a commencé avec un médicament contre la tuberculose. Dans les années 1950, les médecins ont commencé à prescrire de l’iproniazide, un composé développé pour cibler la bactérie Mycobacterium tuberculosis vivant dans les poumons. Le médicament n’était pas particulièrement efficace pour traiter les infections tuberculeuses, mais il a béni certains patients avec un effet secondaire inattendu et agréable. "Leur fonction pulmonaire et tout le reste ne s'améliorait pas beaucoup, mais leur humeur avait tendance à s'améliorer", a déclaré Gerard Sanacora, psychiatre clinicien et directeur du programme de recherche sur la dépression à l'Université de Yale.

(Photo : Pour évaluer les preuves selon lesquelles les déséquilibres en sérotonine provoquent la dépression, la chercheuse en psychiatrie Joanna Moncrieff de l'University College London a organisé une récapitulation qui a examiné des centaines d'articles dans six domaines de recherche.) 

Perplexes face à ce résultat, les chercheurs ont commencé à étudier le fonctionnement de l'iproniazide et des médicaments apparentés dans le cerveau des rats et des lapins. Ils ont découvert que les médicaments empêchaient le corps des animaux d'absorber des composés appelés amines, parmi lesquels se trouve la sérotonine, un produit chimique qui transmet les messages entre les cellules nerveuses du cerveau.

Plusieurs psychologues éminents, parmi lesquels les regrettés cliniciens Alec Coppen et Joseph Schildkraut, se sont emparés de l'idée que la dépression pourrait être causée par un déficit chronique de sérotonine dans le cerveau. L’hypothèse de la dépression liée à la sérotonine a ensuite inspiré des décennies de développement de médicaments et de recherche neuroscientifique. À la fin des années 1980, cela a conduit à l’introduction de médicaments inhibiteurs sélectifs du recaptage de la sérotonine (ISRS), comme le Prozac. (Ces médicaments augmentent les niveaux d'activité de la sérotonine en ralentissant l'absorption du neurotransmetteur par les neurones.)  Aujourd'hui, l'hypothèse de la sérotonine reste l'explication la plus souvent donnée aux patients souffrant de dépression lorsqu'on leur prescrit des ISRS.

Mais des doutes sur le modèle sérotoninergique circulaient au milieu des années 1990. Certains chercheurs ont remarqué que les ISRS ne répondaient souvent pas aux attentes et n’amélioraient pas de manière significative les performances de médicaments plus anciens comme le lithium. " Les études ne concordaient pas vraiment ", a déclaré Moncrieff.

Au début des années 2000, peu d’experts pensaient que la dépression était causée uniquement par un manque de sérotonine, mais personne n’a jamais tenté une évaluation complète de ces preuves. Cela a finalement incité Moncrieff à organiser une telle étude, " afin que nous puissions avoir une idée si cette théorie était étayée ou non ", a-t-elle déclaré.

Elle et ses collègues ont découvert que ce n’était pas le cas, mais l’hypothèse de la sérotonine a toujours des adeptes. En octobre dernier – quelques mois seulement après la parution de leur étude – un article publié en ligne dans Biological Psychiatry prétendait offrir une validation concrète de la théorie de la sérotonine. D'autres chercheurs restent cependant sceptiques, car l'étude n'a porté que sur 17 volontaires. Moncrieff a rejeté les résultats comme étant statistiquement insignifiants.

Un déséquilibre chimique différent

Bien que les niveaux de sérotonine ne semblent pas être le principal facteur de dépression, les ISRS montrent une légère amélioration par rapport aux placebos dans les essais cliniques. Mais le mécanisme à l’origine de cette amélioration reste insaisissable. "Ce n'est pas parce que l'aspirine soulage les maux de tête que les déficits en aspirine dans le corps provoquent des maux de tête", a déclaré John Krystal , neuropharmacologue et directeur du département de psychiatrie de l'Université de Yale. " Comprendre pleinement comment les ISRS produisent des changements cliniques est encore un travail en cours. "

Les spéculations sur la source de ce bénéfice ont donné naissance à des théories alternatives sur les origines de la dépression.

Malgré le terme " sélectif " dans leur nom, certains ISRS modifient les concentrations relatives de produits chimiques autres que la sérotonine. Certains psychiatres cliniciens pensent que l’un des autres composés pourrait être la véritable force induisant ou soulageant la dépression. Par exemple, les ISRS augmentent les niveaux circulants de tryptophane, un acide aminé, un précurseur de la sérotonine qui aide à réguler les cycles de sommeil. Au cours des 15 dernières années, ce produit chimique est devenu un candidat sérieux pour prévenir la dépression. "Les études sur la déplétion en tryptophane fournissent des preuves assez solides", a déclaré Michael Browning , psychiatre clinicien à l'Université d'Oxford.

Un certain nombre d' études sur l'épuisement du tryptophane ont révélé qu'environ les deux tiers des personnes récemment remises d'un épisode dépressif rechuteront lorsqu'elles suivront un régime artificiellement pauvre en tryptophane. Les personnes ayant des antécédents familiaux de dépression semblent également vulnérables à une carence en tryptophane. Et le tryptophane a pour effet secondaire d’augmenter les niveaux de sérotonine dans le cerveau.

Des preuves récentes suggèrent également que le tryptophane et la sérotonine pourraient contribuer à la régulation des bactéries et autres microbes se développant dans l’intestin, et que les signaux chimiques émis par ce microbiote pourraient affecter l’humeur. Bien que les mécanismes exacts liant le cerveau et l’intestin soient encore mal compris, ce lien semble influencer le développement du cerveau. Cependant, comme la plupart des études sur la déplétion en tryptophane ont jusqu’à présent été limitées, la question est loin d’être réglée.

D'autres neurotransmetteurs comme le glutamate, qui joue un rôle essentiel dans la formation de la mémoire, et le GABA, qui empêche les cellules de s'envoyer des messages, pourraient également être impliqués dans la dépression, selon Browning. Il est possible que les ISRS agissent en modifiant les quantités de ces composés dans le cerveau.

Moncrieff considère la recherche d'autres déséquilibres chimiques à l'origine de la dépression comme une tentative de changement de marque plutôt que comme une véritable nouvelle ligne de recherche. " Je dirais qu’ils souscrivent toujours à quelque chose comme l’hypothèse de la sérotonine ", a-t-elle déclaré – l’idée selon laquelle les antidépresseurs agissent en inversant certaines anomalies chimiques dans le cerveau. Elle pense plutôt que la sérotonine a des effets si répandus dans le cerveau que nous pourrions avoir du mal à dissocier son effet antidépresseur direct des autres changements dans nos émotions ou sensations qui remplacent temporairement les sentiments d’anxiété et de désespoir.

Réponses génétiques

Toutes les théories sur la dépression ne reposent pas sur des déficits en neurotransmetteurs. Certains recherchent des coupables au niveau génétique.

Lorsque la première ébauche de séquence à peu près complète du génome humain a été annoncée en 2003, elle a été largement saluée comme le fondement d’une nouvelle ère en médecine. Au cours des deux décennies qui ont suivi, les chercheurs ont identifié des gènes à l’origine d’un large éventail de troubles, dont environ 200 gènes associés à un risque de dépression. (Plusieurs centaines de gènes supplémentaires ont été identifiés comme pouvant augmenter le risque.)

"Il est vraiment important que les gens comprennent qu'il existe une génétique à la dépression", a déclaré Krystal. "Jusqu'à très récemment, seuls les facteurs psychologiques et environnementaux étaient pris en compte."

Notre connaissance de la génétique est cependant incomplète. Krystal a noté que des études sur des jumeaux suggèrent que la génétique pourrait expliquer 40 % du risque de dépression. Pourtant, les gènes actuellement identifiés ne semblent expliquer qu’environ 5 %.

De plus, le simple fait d’avoir les gènes de la dépression ne garantit pas nécessairement qu’une personne deviendra déprimée. Les gènes doivent également être activés d’une manière ou d’une autre, par des conditions internes ou externes.

"Il existe parfois une fausse distinction entre les facteurs environnementaux et les facteurs génétiques", a déclaré Srijan Sen, neuroscientifique à l'Université du Michigan. "Pour les caractères d'intérêt les plus courants, les facteurs génétiques et environnementaux jouent un rôle essentiel."

Le laboratoire de Sen étudie les bases génétiques de la dépression en cartographiant le génome des sujets et en observant attentivement comment les individus présentant des profils génétiques différents réagissent aux changements dans leur environnement. (Récemment, ils se sont penchés sur le stress provoqué par la pandémie de Covid-19.) Différentes variations génétiques peuvent affecter la réaction des individus à certains types de stress, tels que le manque de sommeil, la violence physique ou émotionnelle et le manque de contact social, en devenant déprimé.

Les influences environnementales comme le stress peuvent aussi parfois donner lieu à des changements " épigénétiques " dans un génome qui affectent l’expression ultérieure des gènes. Par exemple, le laboratoire de Sen étudie les changements épigénétiques dans les capuchons situés aux extrémités des chromosomes, appelés télomères, qui affectent la division cellulaire. D'autres laboratoires examinent les modifications des étiquettes chimiques appelées groupes de méthylation qui peuvent activer ou désactiver les gènes. Les changements épigénétiques peuvent parfois même se transmettre de génération en génération. "Les effets de l'environnement sont tout aussi biologiques que les effets des gènes", a déclaré Sen. " Seule la source est différente. "

Les études de ces gènes pourraient un jour aider à identifier la forme de traitement à laquelle un patient répondrait le mieux. Certains gènes peuvent prédisposer un individu à de meilleurs résultats avec une thérapie cognitivo-comportementale, tandis que d'autres patients pourraient mieux s'en sortir avec un ISRS ou de la kétamine thérapeutique. Cependant, il est beaucoup trop tôt pour dire quels gènes répondent à quel traitement, a déclaré Sen.

Un produit du câblage neuronal

Les différences dans les gènes d’une personne peuvent la prédisposer à la dépression ; il en va de même pour les différences dans le câblage neuronal et la structure de leur cerveau. De nombreuses études ont montré que les individus diffèrent dans la manière dont les neurones de leur cerveau s’interconnectent pour former des voies fonctionnelles, et que ces voies influencent la santé mentale.

Lors d'une récente conférence, une équipe dirigée par Jonathan Repple, chercheur en psychiatrie à l'Université Goethe de Francfort, en Allemagne, a décrit comment elle a scanné le cerveau de volontaires gravement déprimés et a découvert qu'ils différaient structurellement de ceux d'un groupe témoin non déprimé. Par exemple, les personnes souffrant de dépression présentaient moins de connexions au sein de la " substance blanche " des fibres nerveuses de leur cerveau. (Cependant, il n'y a pas de seuil de matière blanche pour une mauvaise santé mentale : Repple note que vous ne pouvez pas diagnostiquer la dépression en scannant le cerveau de quelqu'un.)

Après que le groupe déprimé ait subi six semaines de traitement, l'équipe de Repple a effectué une autre série d'échographies cérébrales. Cette fois, ils ont constaté que le niveau général de connectivité neuronale dans le cerveau des patients déprimés avait augmenté à mesure que leurs symptômes diminuaient. Pour obtenir cette augmentation, le type de traitement que les patients recevaient ne semblait pas avoir d'importance, du moment que leur humeur s'améliorait.

Une explication possible de ce changement est le phénomène de neuroplasticité. "La neuroplasticité signifie que le cerveau est réellement capable de créer de nouvelles connexions, de modifier son câblage", a déclaré Repple. Si la dépression survient lorsqu'un cerveau a trop peu d'interconnexions ou en perd certaines, alors exploiter les effets neuroplastiques pour augmenter l'interconnexion pourrait aider à améliorer l'humeur d'une personne.

Inflammation chronique

Repple prévient cependant qu'une autre explication des effets observés par son équipe est également possible : peut-être que les connexions cérébrales des patients déprimés ont été altérées par l'inflammation. L'inflammation chronique entrave la capacité du corps à guérir et, dans le tissu neuronal, elle peut progressivement dégrader les connexions synaptiques. On pense que la perte de ces connexions contribue aux troubles de l’humeur.

De bonnes preuves soutiennent cette théorie. Lorsque les psychiatres ont évalué des populations de patients souffrant de maladies inflammatoires chroniques comme le lupus et la polyarthrite rhumatoïde, ils ont constaté que " tous présentaient des taux de dépression supérieurs à la moyenne ", a déclaré Charles Nemeroff, neuropsychiatre à l'Université du Texas Austin. Bien sûr, savoir qu'ils souffrent d'une maladie dégénérative incurable peut contribuer aux sentiments de dépression du patient, mais les chercheurs soupçonnent que l'inflammation elle-même est également un facteur.

Des chercheurs médicaux ont découvert que provoquer une inflammation chez certains patients peut déclencher une dépression. L'interféron alpha, qui est parfois utilisé pour traiter l'hépatite C chronique et d'autres affections, provoque une réponse inflammatoire majeure dans tout le corps en inondant le système immunitaire de protéines appelées cytokines, des molécules qui facilitent les réactions allant d'un léger gonflement au choc septique. L’afflux soudain de cytokines inflammatoires entraîne une perte d’appétit, de la fatigue et un ralentissement de l’activité mentale et physique – autant de symptômes d’une dépression majeure. Les patients prenant de l’interféron déclarent souvent se sentir soudainement, parfois sévèrement, déprimés.

Si une inflammation chronique négligée est à l’origine de la dépression chez de nombreuses personnes, les chercheurs doivent encore déterminer la source de cette inflammation. Les maladies auto-immunes, les infections bactériennes, le stress élevé et certains virus, dont celui qui cause le Covid-19, peuvent tous induire des réponses inflammatoires persistantes. L’inflammation virale peut s’étendre directement aux tissus du cerveau. La mise au point d’un traitement anti-inflammatoire efficace contre la dépression peut dépendre de la connaissance de laquelle de ces causes est à l’œuvre.

On ne sait pas non plus si le simple traitement de l’inflammation pourrait suffire à soulager la dépression. Les cliniciens tentent encore de déterminer si la dépression provoque une inflammation ou si l’inflammation conduit à la dépression. "C'est une sorte de phénomène de poule et d'œuf", a déclaré Nemeroff.

La théorie du parapluie

De plus en plus, certains scientifiques s’efforcent de recadrer le terme " dépression " pour en faire un terme générique désignant un ensemble de pathologies connexes, tout comme les oncologues considèrent désormais le " cancer " comme faisant référence à une légion de tumeurs malignes distinctes mais similaires. Et tout comme chaque cancer doit être prévenu ou traité de manière adaptée à son origine, les traitements de la dépression peuvent devoir être adaptés à chaque individu. 

S’il existe différents types de dépression, ils peuvent présenter des symptômes similaires – comme la fatigue, l’apathie, les changements d’appétit, les pensées suicidaires et l’insomnie ou un sommeil excessif – mais ils peuvent résulter de mélanges complètement différents de facteurs environnementaux et biologiques. Les déséquilibres chimiques, les gènes, la structure cérébrale et l’inflammation pourraient tous jouer un rôle à des degrés divers. "Dans cinq ou dix ans, nous ne parlerons plus de la dépression comme d'un phénomène unitaire", a déclaré Sen.

Pour traiter efficacement la dépression, les chercheurs en médecine devront peut-être développer une compréhension nuancée de la manière dont elle peut survenir. Nemeroff s'attend à ce qu'un jour, la référence en matière de soins ne soit pas seulement un traitement, mais un ensemble d'outils de diagnostic capables de déterminer la meilleure approche thérapeutique pour la dépression d'un patient individuel, qu'il s'agisse d'une thérapie cognitivo-comportementale, de changements de style de vie, de neuromodulation, d'évitement. déclencheurs génétiques, thérapie par la parole, médicaments ou une combinaison de ceux-ci.

Cette prédiction pourrait frustrer certains médecins et développeurs de médicaments, car il est beaucoup plus facile de prescrire une solution universelle. Mais " apprécier la véritable complexité de la dépression nous amène sur un chemin qui, en fin de compte, aura le plus d’impact ", a déclaré Krystal. Dans le passé, dit-il, les psychiatres cliniciens étaient comme des explorateurs qui atterrissaient sur une petite île inconnue, installaient leur campement et s’installaient confortablement. "Et puis nous avons découvert qu'il y avait tout un continent énorme."



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Joanna Thompson, 26 janvier 2023

[ corps-esprit ] [ thérapie holistique idiosyncrasique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interrogation

Pourquoi cet univers ? Un nouveau calcul suggère que notre cosmos est typique.

Deux physiciens ont calculé que l’univers a une entropie plus élevée – et donc plus probable – que d’autres univers possibles. Le calcul est " une réponse à une question qui n’a pas encore été pleinement comprise ".

(image : Les propriétés de notre univers – lisse, plat, juste une pincée d’énergie noire – sont ce à quoi nous devrions nous attendre, selon un nouveau calcul.)

Les cosmologues ont passé des décennies à chercher à comprendre pourquoi notre univers est si étonnamment vanille. Non seulement il est lisse et plat à perte de vue, mais il s'étend également à un rythme toujours plus lent, alors que des calculs naïfs suggèrent que – à la sortie du Big Bang – l'espace aurait dû se froisser sous l'effet de la gravité et détruit par une énergie noire répulsive.

Pour expliquer la planéité du cosmos, les physiciens ont ajouté un premier chapitre dramatique à l'histoire cosmique : ils proposent que l'espace se soit rapidement gonflé comme un ballon au début du Big Bang, aplanissant toute courbure. Et pour expliquer la légère croissance de l’espace après cette première période d’inflation, certains ont avancé que notre univers n’est qu’un parmi tant d’autres univers moins hospitaliers dans un multivers géant.

Mais maintenant, deux physiciens ont bouleversé la pensée conventionnelle sur notre univers vanille. Suivant une ligne de recherche lancée par Stephen Hawking et Gary Gibbons en 1977, le duo a publié un nouveau calcul suggérant que la clarté du cosmos est attendue plutôt que rare. Notre univers est tel qu'il est, selon Neil Turok de l'Université d'Édimbourg et Latham Boyle de l'Institut Perimeter de physique théorique de Waterloo, au Canada, pour la même raison que l'air se propage uniformément dans une pièce : des options plus étranges sont concevables, mais extrêmement improbable.

L'univers " peut sembler extrêmement précis, extrêmement improbable, mais eux  disent : 'Attendez une minute, c'est l'univers préféré' ", a déclaré Thomas Hertog , cosmologue à l'Université catholique de Louvain en Belgique.

"Il s'agit d'une contribution nouvelle qui utilise des méthodes différentes de celles utilisées par la plupart des gens", a déclaré Steffen Gielen , cosmologue à l'Université de Sheffield au Royaume-Uni.

La conclusion provocatrice repose sur une astuce mathématique consistant à passer à une horloge qui tourne avec des nombres imaginaires. En utilisant l'horloge imaginaire, comme Hawking l'a fait dans les années 70, Turok et Boyle ont pu calculer une quantité, connue sous le nom d'entropie, qui semble correspondre à notre univers. Mais l’astuce du temps imaginaire est une manière détournée de calculer l’entropie, et sans une méthode plus rigoureuse, la signification de la quantité reste vivement débattue. Alors que les physiciens s’interrogent sur l’interprétation correcte du calcul de l’entropie, beaucoup le considèrent comme un nouveau guide sur la voie de la nature quantique fondamentale de l’espace et du temps.

"D'une manière ou d'une autre", a déclaré Gielen, "cela nous donne peut-être une fenêtre sur la microstructure de l'espace-temps."

Chemins imaginaires

Turok et Boyle, collaborateurs fréquents, sont réputés pour avoir conçu des idées créatives et peu orthodoxes sur la cosmologie. L’année dernière, pour étudier la probabilité que notre Univers soit probable, ils se sont tournés vers une technique développée dans les années 1940 par le physicien Richard Feynman.

Dans le but de capturer le comportement probabiliste des particules, Feynman a imaginé qu'une particule explore toutes les routes possibles reliant le début à la fin : une ligne droite, une courbe, une boucle, à l'infini. Il a imaginé un moyen d'attribuer à chaque chemin un nombre lié à sa probabilité et d'additionner tous les nombres. Cette technique de " l’intégrale du chemin " est devenue un cadre puissant pour prédire le comportement probable d’un système quantique.

Dès que Feynman a commencé à faire connaître l’intégrale du chemin, les physiciens ont repéré un curieux lien avec la thermodynamique, la vénérable science de la température et de l’énergie. C'est ce pont entre la théorie quantique et la thermodynamique qui a permis les calculs de Turok et Boyle.

La thermodynamique exploite la puissance des statistiques afin que vous puissiez utiliser seulement quelques chiffres pour décrire un système composé de plusieurs éléments, comme les milliards de molécules d'air qui s'agitent dans une pièce. La température, par exemple – essentiellement la vitesse moyenne des molécules d’air – donne une idée approximative de l’énergie de la pièce. Les propriétés globales telles que la température et la pression décrivent un "  macrostate " de la pièce.

Mais ce terme de un macro-état est un compte rendu rudimentaire ; les molécules d’air peuvent être disposées d’un très grand nombre de manières qui correspondent toutes au même macroétat. Déplacez un peu un atome d’oxygène vers la gauche et la température ne bougera pas. Chaque configuration microscopique unique est appelée microétat, et le nombre de microétats correspondant à un macroétat donné détermine son entropie.

L'entropie donne aux physiciens un moyen précis de comparer les probabilités de différents résultats : plus l'entropie d'un macroétat est élevée, plus il est probable. Il existe bien plus de façons pour les molécules d'air de s'organiser dans toute la pièce que si elles étaient regroupées dans un coin, par exemple. En conséquence, on s’attend à ce que les molécules d’air se propagent (et restent dispersées). La vérité évidente selon laquelle les résultats probables sont probables, exprimée dans le langage de la physique, devient la célèbre deuxième loi de la thermodynamique : selon laquelle l’entropie totale d’un système a tendance à croître.

La ressemblance avec l'intégrale du chemin était indubitable : en thermodynamique, on additionne toutes les configurations possibles d'un système. Et avec l’intégrale du chemin, vous additionnez tous les chemins possibles qu’un système peut emprunter. Il y a juste une distinction assez flagrante : la thermodynamique traite des probabilités, qui sont des nombres positifs qui s'additionnent simplement. Mais dans l'intégrale du chemin, le nombre attribué à chaque chemin est complexe, ce qui signifie qu'il implique le nombre imaginaire i , la racine carrée de −1. Les nombres complexes peuvent croître ou diminuer lorsqu’ils sont additionnés, ce qui leur permet de capturer la nature ondulatoire des particules quantiques, qui peuvent se combiner ou s’annuler.

Pourtant, les physiciens ont découvert qu’une simple transformation peut vous faire passer d’un domaine à un autre. Rendez le temps imaginaire (un mouvement connu sous le nom de rotation de Wick d'après le physicien italien Gian Carlo Wick), et un second i entre dans l'intégrale du chemin qui étouffe le premier, transformant les nombres imaginaires en probabilités réelles. Remplacez la variable temps par l'inverse de la température et vous obtenez une équation thermodynamique bien connue.

Cette astuce de Wick a conduit Hawking et Gibbons à une découverte à succès en 1977, à la fin d'une série éclair de découvertes théoriques sur l'espace et le temps.

L'entropie de l'espace-temps

Des décennies plus tôt, la théorie de la relativité générale d’Einstein avait révélé que l’espace et le temps formaient ensemble un tissu unifié de réalité – l’espace-temps – et que la force de gravité était en réalité la tendance des objets à suivre les plis de l’espace-temps. Dans des circonstances extrêmes, l’espace-temps peut se courber suffisamment fortement pour créer un Alcatraz incontournable connu sous le nom de trou noir.

En 1973, Jacob Bekenstein a avancé l’hérésie selon laquelle les trous noirs seraient des prisons cosmiques imparfaites. Il a estimé que les abysses devraient absorber l'entropie de leurs repas, plutôt que de supprimer cette entropie de l'univers et de violer la deuxième loi de la thermodynamique. Mais si les trous noirs ont de l’entropie, ils doivent aussi avoir des températures et rayonner de la chaleur.

Stephen Hawking, sceptique, a tenté de prouver que Bekenstein avait tort, en se lançant dans un calcul complexe du comportement des particules quantiques dans l'espace-temps incurvé d'un trou noir. À sa grande surprise, il découvrit en 1974 que les trous noirs rayonnaient effectivement. Un autre calcul a confirmé l'hypothèse de Bekenstein : un trou noir a une entropie égale au quart de la surface de son horizon des événements – le point de non-retour pour un objet tombant.

Dans les années qui suivirent, les physiciens britanniques Gibbons et Malcolm Perry, puis plus tard Gibbons et Hawking, arrivèrent au même résultat dans une autre direction . Ils ont établi une intégrale de chemin, additionnant en principe toutes les différentes manières dont l'espace-temps pourrait se plier pour former un trou noir. Ensuite, ils ont fait tourner le trou noir, marquant l'écoulement du temps avec des nombres imaginaires, et ont scruté sa forme. Ils ont découvert que, dans la direction du temps imaginaire, le trou noir revenait périodiquement à son état initial. Cette répétition semblable au jour de la marmotte dans un temps imaginaire a donné au trou noir une sorte de stase qui leur a permis de calculer sa température et son entropie.

Ils n’auraient peut-être pas fait confiance aux résultats si les réponses n’avaient pas correspondu exactement à celles calculées précédemment par Bekenstein et Hawking. À la fin de la décennie, leur travail collectif avait donné naissance à une idée surprenante : l’entropie des trous noirs impliquait que l’espace-temps lui-même était constitué de minuscules morceaux réorganisables, tout comme l’air est constitué de molécules. Et miraculeusement, même sans savoir ce qu’étaient ces " atomes gravitationnels ", les physiciens ont pu compter leurs arrangements en regardant un trou noir dans un temps imaginaire.

"C'est ce résultat qui a laissé une très profonde impression sur Hawking", a déclaré Hertog, ancien étudiant diplômé et collaborateur de longue date de Hawking. Hawking s'est immédiatement demandé si la rotation de Wick fonctionnerait pour autre chose que les trous noirs. "Si cette géométrie capture une propriété quantique d'un trou noir", a déclaré Hertog, "alors il est irrésistible de faire la même chose avec les propriétés cosmologiques de l'univers entier."

Compter tous les univers possibles

Immédiatement, Hawking et Gibbons Wick ont ​​fait tourner l’un des univers les plus simples imaginables – un univers ne contenant rien d’autre que l’énergie sombre construite dans l’espace lui-même. Cet univers vide et en expansion, appelé espace-temps " de Sitter ", a un horizon au-delà duquel l’espace s’étend si rapidement qu’aucun signal provenant de cet espace ne parviendra jamais à un observateur situé au centre de l’espace. En 1977, Gibbons et Hawking ont calculé que, comme un trou noir, un univers de De Sitter possède également une entropie égale au quart de la surface de son horizon. Encore une fois, l’espace-temps semblait comporter un nombre incalculable de micro-états.

Mais l’entropie de l’univers réel restait une question ouverte. Notre univers n'est pas vide ; il regorge de lumière rayonnante et de flux de galaxies et de matière noire. La lumière a provoqué une expansion rapide de l'espace pendant la jeunesse de l'univers, puis l'attraction gravitationnelle de la matière a ralenti les choses pendant l'adolescence cosmique. Aujourd’hui, l’énergie sombre semble avoir pris le dessus, entraînant une expansion galopante. "Cette histoire d'expansion est une aventure semée d'embûches", a déclaré Hertog. "Il n'est pas si facile d'obtenir une solution explicite."

Au cours de la dernière année, Boyle et Turok ont ​​élaboré une solution aussi explicite. Tout d'abord, en janvier, alors qu'ils jouaient avec des cosmologies jouets, ils ont remarqué que l'ajout de radiations à l'espace-temps de De Sitter ne gâchait pas la simplicité requise pour faire tourner l'univers par Wick.

Puis, au cours de l’été, ils ont découvert que la technique résisterait même à l’inclusion désordonnée de matière. La courbe mathématique décrivant l’histoire plus complexe de l’expansion relevait toujours d’un groupe particulier de fonctions faciles à manipuler, et le monde de la thermodynamique restait accessible. "Cette rotation de Wick est une affaire trouble lorsque l'on s'éloigne d'un espace-temps très symétrique", a déclaré Guilherme Leite Pimentel , cosmologiste à la Scuola Normale Superiore de Pise, en Italie. "Mais ils ont réussi à le trouver."

En faisant tourner Wick l’histoire de l’expansion en montagnes russes d’une classe d’univers plus réaliste, ils ont obtenu une équation plus polyvalente pour l’entropie cosmique. Pour une large gamme de macroétats cosmiques définis par le rayonnement, la matière, la courbure et une densité d'énergie sombre (tout comme une plage de températures et de pressions définit différents environnements possibles d'une pièce), la formule crache le nombre de microétats correspondants. Turok et Boyle ont publié leurs résultats en ligne début octobre.

Les experts ont salué le résultat explicite et quantitatif. Mais à partir de leur équation d’entropie, Boyle et Turok ont ​​tiré une conclusion non conventionnelle sur la nature de notre univers. "C'est là que cela devient un peu plus intéressant et un peu plus controversé", a déclaré Hertog.

Boyle et Turok pensent que l'équation effectue un recensement de toutes les histoires cosmiques imaginables. Tout comme l'entropie d'une pièce compte toutes les façons d'arranger les molécules d'air pour une température donnée, ils soupçonnent que leur entropie compte toutes les façons dont on peut mélanger les atomes de l'espace-temps et se retrouver avec un univers avec une histoire globale donnée. courbure et densité d’énergie sombre.

Boyle compare le processus à l'examen d'un gigantesque sac de billes, chacune représentant un univers différent. Ceux qui ont une courbure négative pourraient être verts. Ceux qui ont des tonnes d'énergie sombre pourraient être des yeux de chat, et ainsi de suite. Leur recensement révèle que l’écrasante majorité des billes n’ont qu’une seule couleur – le bleu, par exemple – correspondant à un type d’univers : un univers globalement semblable au nôtre, sans courbure appréciable et juste une touche d’énergie sombre. Les types de cosmos les plus étranges sont extrêmement rares. En d’autres termes, les caractéristiques étrangement vanille de notre univers qui ont motivé des décennies de théorie sur l’inflation cosmique et le multivers ne sont peut-être pas étranges du tout.

"C'est un résultat très intrigant", a déclaré Hertog. Mais " cela soulève plus de questions que de réponses ".

Compter la confusion

Boyle et Turok ont ​​calculé une équation qui compte les univers. Et ils ont fait l’observation frappante que des univers comme le nôtre semblent représenter la part du lion des options cosmiques imaginables. Mais c’est là que s’arrête la certitude.

Le duo ne tente pas d’expliquer quelle théorie quantique de la gravité et de la cosmologie pourrait rendre certains univers communs ou rares. Ils n’expliquent pas non plus comment notre univers, avec sa configuration particulière de parties microscopiques, est né. En fin de compte, ils considèrent leurs calculs comme un indice permettant de déterminer quels types d’univers sont préférés plutôt que comme quelque chose qui se rapproche d’une théorie complète de la cosmologie. "Ce que nous avons utilisé est une astuce bon marché pour obtenir la réponse sans connaître la théorie", a déclaré Turok.

Leurs travaux revitalisent également une question restée sans réponse depuis que Gibbons et Hawking ont lancé pour la première fois toute l’histoire de l’entropie spatio-temporelle : quels sont exactement les micro-états que compte l’astuce bon marché ?

"L'essentiel ici est de dire que nous ne savons pas ce que signifie cette entropie", a déclaré Henry Maxfield , physicien à l'Université de Stanford qui étudie les théories quantiques de la gravité.

En son cœur, l’entropie résume l’ignorance. Pour un gaz constitué de molécules, par exemple, les physiciens connaissent la température – la vitesse moyenne des particules – mais pas ce que fait chaque particule ; l'entropie du gaz reflète le nombre d'options.

Après des décennies de travaux théoriques, les physiciens convergent vers une vision similaire pour les trous noirs. De nombreux théoriciens pensent aujourd'hui que la zone de l'horizon décrit leur ignorance de ce qui s'y trouve, de toutes les façons dont les éléments constitutifs du trou noir sont disposés de manière interne pour correspondre à son apparence extérieure. (Les chercheurs ne savent toujours pas ce que sont réellement les microétats ; les idées incluent des configurations de particules appelées gravitons ou cordes de la théorie des cordes.)

Mais lorsqu’il s’agit de l’entropie de l’univers, les physiciens se sentent moins sûrs de savoir où se situe leur ignorance.

En avril, deux théoriciens ont tenté de donner à l’entropie cosmologique une base mathématique plus solide. Ted Jacobson , physicien à l'Université du Maryland réputé pour avoir dérivé la théorie de la gravité d'Einstein de la thermodynamique des trous noirs, et son étudiant diplômé Batoul Banihashemi ont explicitement défini l'entropie d'un univers de Sitter (vacant et en expansion). Ils ont adopté la perspective d’un observateur au centre. Leur technique, qui consistait à ajouter une surface fictive entre l'observateur central et l'horizon, puis à rétrécir la surface jusqu'à ce qu'elle atteigne l'observateur central et disparaisse, a récupéré la réponse de Gibbons et Hawking selon laquelle l'entropie est égale à un quart de la surface de l'horizon. Ils ont conclu que l’entropie de De Sitter compte tous les microétats possibles à l’intérieur de l’horizon.

Turok et Boyle calculent la même entropie que Jacobson et Banihashemi pour un univers vide. Mais dans leur nouveau calcul relatif à un univers réaliste rempli de matière et de rayonnement, ils obtiennent un nombre beaucoup plus grand de microétats – proportionnels au volume et non à la surface. Face à ce conflit apparent, ils spéculent que les différentes entropies répondent à des questions différentes : la plus petite entropie de De Sitter compte les microétats d'un espace-temps pur délimité par un horizon, tandis qu'ils soupçonnent que leur plus grande entropie compte tous les microétats d'un espace-temps rempli d'espace-temps. matière et énergie, tant à l’intérieur qu’à l’extérieur de l’horizon. "C'est tout un shebang", a déclaré Turok.

En fin de compte, régler la question de savoir ce que comptent Boyle et Turok nécessitera une définition mathématique plus explicite de l’ensemble des microétats, analogue à ce que Jacobson et Banihashemi ont fait pour l’espace de Sitter. Banihashemi a déclaré qu'elle considérait le calcul d'entropie de Boyle et Turok " comme une réponse à une question qui n'a pas encore été entièrement comprise ".

Quant aux réponses plus établies à la question " Pourquoi cet univers ? ", les cosmologistes affirment que l’inflation et le multivers sont loin d’être morts. La théorie moderne de l’inflation, en particulier, est parvenue à résoudre bien plus que la simple question de la douceur et de la planéité de l’univers. Les observations du ciel correspondent à bon nombre de ses autres prédictions. L'argument entropique de Turok et Boyle a passé avec succès un premier test notable, a déclaré Pimentel, mais il lui faudra trouver d'autres données plus détaillées pour rivaliser plus sérieusement avec l'inflation.

Comme il sied à une grandeur qui mesure l’ignorance, les mystères enracinés dans l’entropie ont déjà servi de précurseurs à une physique inconnue. À la fin des années 1800, une compréhension précise de l’entropie en termes d’arrangements microscopiques a permis de confirmer l’existence des atomes. Aujourd'hui, l'espoir est que si les chercheurs calculant l'entropie cosmologique de différentes manières peuvent déterminer exactement à quelles questions ils répondent, ces chiffres les guideront vers une compréhension similaire de la façon dont les briques Lego du temps et de l'espace s'empilent pour créer l'univers qui nous entoure.

"Notre calcul fournit une énorme motivation supplémentaire aux personnes qui tentent de construire des théories microscopiques de la gravité quantique", a déclaré Turok. "Parce que la perspective est que cette théorie finira par expliquer la géométrie à grande échelle de l'univers."

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 17 nov 2022

[ constante fondamentale ] [ 1/137 ]

 

Commentaires: 0

Ajouté à la BD par miguel

non-voyant

Le monde tel que l'imaginent ceux qui n'ont jamais vu. (II)

Imaginer les couleurs

L'épineuse question des couleurs offre un autre exemple du "fossé perceptif" qui sépare voyants et aveugles de naissance. Les voyants s'imaginent souvent qu'il leur suffit de fermer les yeux pour se représenter la perception d'un aveugle. En réalité, ce n'est pas parce que nous fermons les yeux que nos yeux cessent de voir : le noir qui nous apparaît n'est rien d'autre que la couleur de nos paupières closes. Il en va tout autrement pour la plupart des aveugles, et à plus forte raison pour les aveugles de naissance. Comme il leur serait difficile de nous expliquer leur perception du monde, tant elle relève pour eux de l'évidence, le mieux est encore de nous tourner vers quelqu'un qui a vu avant de ne plus voir et qui, de ce fait, dispose d'un point de comparaison.

Jean-Marc Meyrat, devenu aveugle à l'âge de 8 ans, raconte son passage du monde des voyants dans celui des aveugles en ces termes : "Cela s'est fait très progressivement. Ce glissement presque impalpable s'est matérialisé par le déplacement de ma chaise de plus en plus près de l'écran de la télévision. Vers la fin du processus, je suis entré dans une sorte de zone grise qui s'est peu à peu assombrie pour virer au noir avant de disparaître. Puis, plus rien. La persistance de la couleur noire, parfois entrecoupée d'éblouissements, peut durer plus ou moins longtemps. Ceci est d'autant plus vrai si la cécité est intervenue brutalement. Après, plus rien, je ne peux pas dire mieux : plus rien.

Voilà qui pose un sérieux problème à ceux que le noir fascine et que la notion de rien effraie.". C'est l'image traditionnelle de l'aveugle errant dans les ténèbres qui se trouve ici battue en brèche... Certains aveugles tardifs regrettent de n'avoir pas même la perception du noir : ainsi, l'écrivain Jorge Luis Borges, devenu aveugle au cours de sa vie, affirmait que le noir lui manquait surtout au moment d'aller se coucher, lui qui avait pris l'habitude de s'endormir dans l'obscurité la plus complète...

Qu'est-ce que c'est que de ne rien voir ? En réalité, il est aussi difficile pour un aveugle de naissance de se représenter les couleurs que pour un voyant d'imaginer une perception absolument dénuée de couleurs, où l'on ne trouve pas même de noir et blanc, ni aucune nuance intermédiaire : autant chercher à imaginer un désert sans sol ni ciel, ou ce fameux couteau dont parle Lichtenberg, dépourvu de lame et auquel manque le manche. "Les gens s'imaginent les choses par rapport à ce qu'ils connaissent, remarque Christine Cloux. Nous qui entendons, nous imaginons à tort que les sourds de naissance sont plongés dans le silence. Or, pour connaître le silence il faut connaître le bruit, ce qui est notre cas mais pas celui des sourds, qui ne connaissent pas plus le bruit que son absence. Ce qu'ils connaissent, c'est un monde privé de ces notions."

Ces considérations posent tout de même plusieurs problèmes logiques : comment un aveugle peut-il se représenter l'image spatiale d'un objet, en considérant qu'il n'a pas même deux couleurs différentes à sa disposition pour distinguer l'objet du fond ? Il suffirait pourtant de nous remémorer certaines images qui nous viennent en rêve, ou en pensée : par exemple, nous voyons l'image d'une femme, mais nous sommes bien incapables de dire quelle est la couleur ou la forme exacte de sa robe. L'image mentale du voyant a rarement la précision d'une image photographique... Ces couleurs flottantes, ces formes incertaines, peuvent sans doute nous donner un aperçu des images non visuelles de l'aveugle. Si les couleurs sont inaccessibles aux sens de l'aveugle, cela ne l'empêche pas de tenter de se les représenter.

"Ca n'empêche même pas d'avoir des préférences, fait remarquer Sophie Massieu. Je m'habille en fonction de ce que j'imagine de la couleur en question. Par exemple, je ne porte jamais de jaune. Allez savoir ce qu'il m'a fait ce pauvre jaune...". "Je me suis créée des représentations mentales des couleurs, exactement comme je me représente les idées ou les concepts qui ne se voient pas, comme un atome par exemple..." explique Christine Cloux.

Mais d'où viennent ces représentations mentales exactement ? Pour la plupart, des commentaires des voyants : "Un jour une copine est arrivée vers moi en s'écriant : "Ouah ! Du rouge ! Ca te va super bien !" D'autres ont confirmé et depuis ce moment-là j'achète plus souvent du rouge.", raconte Christine. Parfois, la couleur peut évoquer à l'aveugle de naissance un souvenir précis : Sophie Massieu associe le bleu Majorelle à un après-midi passé dans le jardin Majorelle à Marrakech. Certains aveugles associeront le noir à la tristesse s'ils ont porté du noir pendant un enterrement, le blanc à la gaieté, puisqu'ils savent que c'est la couleur dont se parent les mariées et les communiants... La couleur dépose son image dans la mémoire affective et non dans la mémoire sensorielle ; le mot s'imprègne de l'émotion, comme un buvard. "Cela rend la sensation plus épaisse." explique Sophie.

Dans ce domaine éminemment subjectif, les "glissements sensoriels" sont légion. Il arrive fréquemment que l'aveugle de naissance prête aux couleurs les propriétés tactiles des objets qui leur sont couramment associés : par exemple, si en se vautrant dans le gazon, l'aveugle en a apprécié la douceur et la mollesse, il attribuera désormais au vert ses propriétés ; de même, le rouge brûle puisque c'est le feu, le blanc est froid comme la neige... L'aveugle de naissance n'hésite jamais à puiser dans des termes empruntés aux autres sens pour décrire l'image qu'il se fait des couleurs. Christine Cloux vous dira que le blanc lui semble "très aérien, léger, comme de la glace, très pur, peut-être parfois trop", alors que le noir lui paraît au contraire "presque encombrant, étouffant".

A ce petit jeu, la langue est pour l'aveugle un vivier de métaphores et d'associations verbales précieuses : ne dit-on pas un éclat tapageur, une teinte agressive ou insolente, un rose fade ? Ecrivains et poètes ne parlent-ils pas de "l'épaisseur des ténèbres", de "ruissellements de lumières" ? La mémoire tactile de l'aveugle est alors à même de lui fournir des repères, aussi abstraits soient-ils. Quand elle lit ou entend les termes "une forêt obscure", Christine Cloux s'imagine "que la forêt est très dense, qu'il y fait frisquet, voire franchement froid parce que le soleil ne passe pas... "Le rayonnement de la chaleur donne une idée très nette à l'aveugle de ce que peut-être le rayonnement de la lumière (on parle d'ailleurs d'une lumière douce et pénétrante...).

Parfois, l'image que l'aveugle se fait d'une couleur se fonde simplement sur le mot qui la désigne. "Enfant, le jaune m'évoquait un clown en train de jouer de la trompette, parce que je trouvais le mot amusant et que je savais que c'est une couleur gaie, voire criarde, explique Christine Cloux. C'est jaune, yellow, gelb... ou même giallo. Ces sonorités participent à ma représentation de cette couleur.". Ce faisant, l'aveugle se comporte en quelque sorte en "cratylien"- du nom de Cratyle, cet interlocuteur de Socrate qui professait que la sonorité des mots pouvait nous renseigner sur la nature même de ce qu'ils désignent.

Un voyant, pourtant, sait bien qu'il est hasardeux de tenter d'établir un lien entre le nom d'une couleur et la couleur elle-même... Et cependant, n'agissons-nous pas de manière analogue quand nous imaginons une ville ou un pays où nous ne sommes jamais allés et dont nous ne savons rien, en nous fondant sur la sonorité de son nom ? Des noms tels que Constantinople, Byzance ou Marrakech ne charrient-ils pas déjà un flot d'images abstraites considérables rien que par leurs propriétés auditives, indépendamment même des images visuelles précises qu'on leur accole ? La plupart des aveugles de naissance n'hésitent pas à puiser dans les impressions auditives pour se représenter les couleurs : "Je me représente le spectre des diverses couleurs un peu comme l'échelle des sons - l'échelle des couleurs est simplement plus grande et plus complexe à se représenter." explique Christine Cloux.

La comparaison n'est pas insensée : couleurs et sons ont en commun de se définir par une certaine fréquence (hauteur pour le son, teinte pour la couleur), une certaine pureté (timbre pour le son, saturation pour la couleur), une certaine intensité (force pour le son, valeur ou luminosité pour la couleur)... Cela explique peut-être les fréquentes associations verbales entre l'ouïe et la vue dans le langage courant : ne parle-t-on pas d'un rouge criard, d'une gamme de couleur, du ton d'un tissu, d'une voix blanche ?

Pour Christine Cloux, si les couleurs émettaient du son, "le jaune, l'orange et le rouge nous casseraient les oreilles alors que le bleu par exemple ferait un bruit aussi soutenu mais moins fort, avec le vert." Cette croyance selon laquelle il pourrait exister une correspondance directe entre la sensation auditive et la sensation visuelle n'est pas propre aux aveugles, elle a longtemps hanté l'oeuvre des symbolistes et des romantiques, et des artistes en général : qu'on songe aux Synesthésies de Baudelaire ("les parfums, les couleurs et les sons se répondent" dans le poème Correspondances), à Rimbaud cherchant à assigner une couleur à chaque voyelle ("A noir, E blanc, I rouge"...), ou à cette très sérieuse table de concordance entre voyelles, couleurs et instruments que tenta d'établir René Ghil, un disciple de Mallarmé, ou encore au plasticien Nicolas Schöffer qui mit des sons en couleur... Bien qu'on sente ce qu'il entre de rêverie poétique dans cette croyance, on ne peut s'empêcher d'imaginer que, si les divers stimuli sensoriels n'étaient que les différents dialectes d'une même langue, toutes sortes de traductions deviendraient possibles...

Que vienne le temps du traducteur couleurs/sons qui permettrait de traduire un tableau de Van Gogh en symphonie ! Imaginer l'art La seule chose que les aveugles de naissance savent des peintres, c'est ce qu'on a bien voulu leur en dire - or le langage est évidemment inapte à rendre compte de ce qui fait la spécificité de cet art. Là encore, l'aveugle doit trouver des analogies où il peut : Christine Cloux imagine la peinture impressionniste en se fondant sur l'impressionnisme musical et littéral, la peinture cubiste en pensant au style de Gertrude Stein - elle imagine les personnages peints par Picasso comme "des corps dont on aurait" découpé" les diverses parties pour les reconstituer n'importe comment.", mais ajoute aussitôt "Je n'aime pas le désordre, ça ne me parle pas.". Quand on lui demande ce que lui évoque une oeuvre comme le Carré blanc sur fond blanc de Malevitch, il lui semble que "ce doit être beau, presque intangible et cependant... Comme une porte d'entrée." 

Natacha de Montmollin est plus sceptique : "Je ne vois pas l'intérêt.". La peinture l'indiffère - Escher est le seul dessinateur dont elle se soit forgée une image précise : "sa technique m'intrigue". Etrange, si l'on considère que les dessins d'Escher reposent la plupart du temps sur des illusions optiques, des perspectives truquées qui, par essence, ne peuvent tromper qu'un voyant... Quel rapport les aveugles de naissance entretiennent-ils avec un art comme la poésie ? Sophie Massieu avoue qu'elle n'y est pas très sensible. "Je ne sais pas si ça relève de mon caractère ou de ma cécité... Peut-être qu'il y a une part de l'image qui m'échappe... "Christine Cloux, pour sa part, ne considère pas que la cécité soit une entrave pour apprécier un poème : selon elle, les images poétiques font autant - si ce n'est davantage - appel à la mémoire affective qu'à la mémoire sensorielle. "Peut-être que parfois je perçois une métaphore un peu autrement que quelqu'un d'autre, mais c'est le cas pour chacun de nous, je pense. Nous comprenons les figures de styles avec notre monde de référence.". Le rapport à l'art de certains aveugles de naissance semble parfois tenir du besoin vital : "C'est une expérience très riche dont je ne saurais me passer, explique Christine Cloux. J'ai peut-être d'autant plus besoin de l'art que je n'ai pas les images "extérieures à moi"".

Si l'aveugle de naissance exige davantage de l'art que le commun des voyants, c'est peut-être parce qu'il attend de lui qu'il lui restitue les beautés de la nature dont la cécité l'a privé. Oscar Wilde, pour expliquer à quel point l'oeuvre d'un artiste pouvait déteindre sur notre vision du monde, disait que ce n'est pas l'art qui imite la nature mais la nature qui imite l'art. Cette phrase a une pertinence toute particulière dans le cas de l'aveugle de naissance, car tout ce qu'il lit à propos de la nature, dans les poèmes ou dans les romans, se mêle intimement dans son imaginaire à la représentation qu'il s'en fait dans la vie de tous les jours - et cette représentation a sans doute plus à voir avec une transfiguration artistique, infiniment subjective, qu'avec, par exemple, une reproduction photographique un peu floue... Imaginer la nature D'une façon générale, la nature - tout du moins sa face visible - constitue pour l'aveugle de naissance une source inépuisable de curiosités. Certains phénomènes auxquels les voyants sont accoutumés demeurent pour lui un mystère - notamment les plus insubstantiels, ceux qu'il ne peut connaître par le toucher. "Un gaz... on risque de ne pas le voir. En revanche on voit la vapeur, ce qui est un peu étrange puisque l'eau est transparente, et pourtant, vous la voyez tout de même... Je le comprends en théorie mais c'est quand même bizarre." avoue Christine Cloux.

La transparence fait partie des notions difficiles à concevoir quand on ignore ce qu'est l'opacité visuelle - en témoigne la fascination qu'exercent les poissons sur de ce jeune aveugle de naissance, interrogé par Sophie Calle (dans le catalogue de l'exposition M'as-tu vue) : "C'est leur évolution dans l'eau qui me plaît, l'idée qu'ils ne sont rattachés à rien. Des fois, je me prends à rester debout des minutes entières devant un aquarium, debout comme un imbécile.". Un autre (toujours cité par Sophie Calle) tente de se représenter les miroitements de la mer : "On m'a expliqué que c'est bleu, vert, que les reflets avec le soleil font mal aux yeux. Cela doit être douloureux à regarder." Certaines reproductions peuvent donner à l'aveugle de naissance une idée approximative de certains phénomènes insubstantiels. Une femme (interrogée par Jane Hervé) se souvient d'un bas-relief du Moyen-Âge : "Il représentait le feu, avec des flammes en pointe comme des épées. Des flammes en pierre. J'étais éblouie. Des stries dans tous les sens, des nervures sur un flanc de rocher. Je n'avais aucune idée de la façon dont on pouvait représenter une flamme. Je ne savais pas que l'on pouvait toucher du feu".

Les aveugles de naissance n'en demeurent pas moins les premiers à reconnaître l'insuffisance de ces palliatifs, qui les induisent parfois d'avantage en erreur qu'ils ne les renseignent vraiment. "Les étoiles, on en a tous dessiné, alors ça empiète sur l'imagination, remarque Christine Cloux. Sauf que les vraies étoiles doivent avoir bien d'autres formes encore..." La difficulté à se représenter un phénomène proprement visuel, quand elle n'arrête pas un aveugle, peut au contraire aiguillonner sa curiosité. Il semble en effet que, pour certains d'entre eux, comme d'ailleurs pour quantité de voyants, moins une chose leur est accessible et plus elle les fascine. Une notion comme l'horizon, par exemple, laisse Christine Cloux rêveuse : "L'horizon, c'est là où la vue ne peut pas aller plus loin. C'est le sens de l'expression "à perte de vue", littéralement. C'est une limite, poétique pour moi... Instinctivement cela m'évoque la mer, le soleil, les océans. L'espace, l'infini presque, la liberté, l'évasion.". Le spectacle des plaines s'étendant à perte de vue, des montagnes dont les sommets se perdent dans les nuages ou des vallées s'abîmant dans des gouffres vertigineux, demeure l'apanage de la vue, mais certaines impressions auditives peuvent en donner de puissants équivalents à l'aveugle. Face à la mer, le bruit de la vague qui vient de loin lui permet de composer, à partir d'images spatiales finies, "une vision indéfinie qui peut lui donner la sensation de l'infini" (Pierre Villey). "Sur un rivage, je me concentre sur le bruit des vagues à en avoir le vertige, et je me livre toute entière à l'instant présent."confie Sophie Massieu.

A la montagne, des bruits légers transportés à de grandes distances, dont l'écho se répercute pendant de longues secondes, élargissent "l'horizon" de l'aveugle dans toutes les directions à la fois. L'aveugle est en outre affranchi de certains aléas liés à l'altitude : "Je ne pense pas que je puisse avoir le vertige, dans la mesure où il me semble qu'il s'agit d'un phénomène en relation avec la vue. "explique Daniel Baud (66 ans, retraité). Christine Cloux assure même aimer "la sensation de vide au bord d'une falaise.". Certains aveuglent de naissance aiment particulièrement se confronter à l'immensité des grands espaces : "Les espaces infinis, je suis allée dans le désert juste pour me plonger dedans..." affirme Sophie Massieu. Sans vouloir généraliser outre mesure, il semble que l'infini soit, pour les aveugles de naissance, moins une source de crainte que de curiosité. Quand, après leur avoir lu la phrase de Pascal : "Le silence éternel des espaces infinis m'effraie.", je leur demande lequel de ces termes leur inspire la plus grande crainte, aucun ne mentionne l'infini.

Pour Sophie Massieu, c'est l'éternité : "Se dire que rien ne va changer pendant toute une vie, ça ne correspond pas du tout à mon caractère". Pour Daniel Baud, c'est le silence éternel - et pour cause, un silence absolu serait, pour l'aveugle, comme une obscurité totale pour un voyant. "Perdre tout point de repère - plus d'espace-temps, plus de son, plus d'espace... - effectivement c'est effrayant, admet Christine Cloux. Nous avons besoin d'un lieu où être ancrés, d'un point de référence pour pouvoir dire :"je suis ici, je suis vivant." Mais sa foi tempère ses craintes : "C'est effrayant pour nous maintenant, Mais lorsque nous serons éternels, nous n'aurons plus besoin de ces notions physiques."

a couleur du "jamais" 

Nous disions plus haut que l'aveugle de naissance ne pouvait pas regretter la vue puisqu'il s'agissait d'un état qu'il n'avait jamais connu... Mais ne leur arrivent-ils jamais de soupirer après ces merveilles de la nature dont ils entendent parler autour d'eux, en songeant à ces beautés qu'ils n'ont jamais vu et, pour la majorité d'entre eux, ne verront jamais ? Ces pensées ne colorent-elles pas ce "jamais" d'une pointe d'amertume ?

"Je regrette la vue comme on peut envier le don de la divination ou les ailes de l'aigle" affirme un aveugle de naissance cité par Pierre Villey. Quand Christine Cloux s'imagine voyante, elle reste songeuse : "Peut-être qu'au lieu d'écrire je ferais des aquarelles... et encore, je pense que non.". La vue semble n'inspirer aux aveugles de naissance que des songes vains ou des désirs abstraits - voire même, parfois, une certaine méfiance : "Tant de gens qui voient sont en fait malheureux, remarque Christine Cloux. Pour sûr, la vue n'apporte ni le bonheur ni rien. Ou peut-être qu'elle apporte trop et qu'on est envahis par tout ce qu'il faut regarder." A l'en croire, la cécité peut même parfois s'avérer un filtre bénéfique : "Je peux éviter de me représenter ce que je ne veux pas, comme nombre d'images que vous subissez aux informations : les catastrophes, les morts... Je les comprends, je les intègre, ça me touche, mais je ne les "vois" pas précisément dans ma tête. L'impact émotionnel est largement suffisant et je ne suis pas masochiste."

En définitive, le rapport que l'aveugle de naissance entretient avec la vue est sans doute semblable à celui que nous entretenons tous vis-à-vis de l'inconnu : un mélange de peur et de désir, d'attirance et de défiance, comme en atteste ce témoignage de Christine Cloux, à qui nous laisserons le mot de la fin : "Oui, il m'arrive de regretter de ne pas voir. Je ne verrai jamais le visage des gens que j'aime, les fleurs, les étoiles, la nature, les petits enfants, les gens qui me sourient, les couleurs, les planètes... Et si je pouvais voir, juste un jour, juste une heure, cela ferait tellement plaisir à ma famille ! Ce serait pour eux un vrai bonheur, je pense, nettement plus que pour moi, puisque que je suis heureuse de ma vie de toute manière. Mais comme je suis curieuse, je voudrais tout voir, quitte à ne rien comprendre : les nuages, les étoiles, les gens. Je voudrais voir les visages changer lorsqu'ils ressentent des émotions. Je voudrais regarder dans un miroir pour voir quel effet ça fait d'être "face à soi-même" littéralement. Mais si vraiment je pouvais, je crois bien que ça me donnerait le vertige. C'est parce que je sais que ça ne risque pas d'arriver que je me dis que ce serait peut-être bien. Mais voir tout le temps... pas sûr. Il faudrait apprendre à voir, puis à regarder, puis à gérer. Et qui saurait m'apprendre comment faire ?"

Auteur: Molard Arthur

Info: http://www.jeanmarcmeyrat.ch/blog/2011/05/12/le-monde-tel-que-limaginent-ceux-qui-nont-jamais-vu

[ réflexion ] [ vacuité ] [ onirisme ] [ mimétisme ] [ imagination ] [ synesthésie ] [ monde mental ]

 

Commentaires: 0