Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 58
Temps de recherche: 0.0534s

théorie du genre

Dans la 41e séance du séminaire Lacan, nous et le réel, j’avance que Macron ne connaît rien à la psychanalyse, car il prend ses renseignements du côté de [Jacques-Alain] Miller qui lui ne comprend rien à la psychanalyse.

La déclaration de Macron en 2019 concernant "le père" en est:

"La paternité se divise en deux fonctions: une génétique et l'autre symbolique. Et pour la partie symbolique, il n'y a pas de problème, je comprends votre problème. C'est que vous, votre problème, c'est que pour vous un père est forcément un mâle. Tous les psychanalystes vous diront donc le contraire."

Tous les psychanalystes? Ou les "psychanalystes" de l’ECF*?

Après Alice au pays des merveilles de Lewis Caroll, il s’agit de se poser la question: une vérité répétée par un perroquet est-elle toujours une vérité ? et de faire ainsi la différence entre sujet de l’énonciation et sujet de l’énoncé, et partant, entre Discours de l’Analyste et Discours Universitaire (ce que dit Lacan, et ce que dit Miller de ce que dit Lacan)...

"(...) ce passage de la mère au père caractérise une victoire de la vie de l’esprit sur la vie sensorielle, donc un progrès de la civilisation car la maternité est attestée par le témoignage des sens tandis que la paternité est une conjecture, est édifiée sur une déduction et sur un postulat." Freud - L’homme Moïse et la religion monothéiste

Pour que la fonction paternelle soit activée, encore faut-il pouvoir se dire qu’il y aura eu du père... ce qui implique nécessairement un rapport d’alliance entre les deux sexes, une union sexuelle entre un homme et une femme, avec ce que cela comporte d’asymétrie constitutive (mater certa, pater semper incertus), de mystère et d’impossible, un écart à propos duquel la loi avait, depuis les origines Grecques antiques de la civilisation occidentale, accordé une prévalence au père en consacrant l’autorité paternelle, au sens extensif du concept d’auteur (cf. L’Orestie d’Eschyle et ses conséquences sur le Droit et l’organisation des sociétés...)

Il n’est pas exagéré de dire que vingt-cinq siècles après l’Orestie, la psychanalyse a inventé la fonction paternelle pour réaffirmer juste avant la survenue du nazisme la place prépondérante du père dans les liens fondamentaux et sacrés de l’homme à la parole, et donc la civilisation.

Se passer des noms-du-père réclame au préalable d’avoir su s’en servir.

Auteur: Dubuis Santini Christian

Info: Publication facebook du 10.02.2021 *Ecole de la Cause Freudienne

[ dévoiement du discours analytique ] [ dissolution ] [ théorie du genre ] [ critique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

trouble psychologique

A quoi bon se réveiller si personne ne vous attend ? Est-il besoin de donner davantage de commentaires? Notre occident vidé de ses croyances, entouré de ses charniers et des cendres de son passé, essaye d’occulter son désastre en plongeant tête baissée vers le vide et l’oubli. Ecrans, consommation, vide et médiocrité intellectuelle, spirituelle et morale : je m’arrête dans cette grise litanie. Paraphrasant Philippe Muray, je dirais qu’il suffit de mettre le monde entre guillemets pour qu’il nous apparaisse tel qu’en lui-même : porteur de bien peu de promesses et d’attente. L’autisme occidental est ainsi le signe d’une profonde déception ontologique doublée d’un brouillage symbolique dû à la perversion de marqueurs symboliques vitaux devenus illisibles notamment après leurs détournement par les régimes autocratiques et dictatoriaux responsables de meurtres de masse qui ont émaillé l’histoire du XXème siècle, toujours associés à un culte de la personnalité de figures paternelles dévoyées. Il en va de même de pays ayant dû faire face à des situations de guerre et de massacres prolongées, comme par exemple le Liban : je suis ainsi prêt à faire le postulat d’une corrélation entre le taux d’autisme relevé dans un pays et son histoire géopolitique et stratégique plus ou moins récente. On m’objectera que l’humanité est en guerre depuis les tout premiers moments de son émergence, sans que cela se soit jamais traduit par une explosion du taux de prévalence de l’autisme comparable à celle que nous observons actuellement. Certes, mais la grande nouveauté consiste présentement dans l’affaiblissement voire l’absence radicale au sein des sociétés contemporaines des marqueurs symboliques fondamentaux qui autrefois constituaient l’horizon structurant de toute société humaine, et qui offraient un cadre signifiant protecteur. En un raccourci efficace et frappant, on pourrait dégager un lien dynamique entre l’affirmation nietzschéenne "Gott ist tod", ou plus exactement le contexte sociétal et civilisationnel qui a rendu possible sa formulation, et de nombreux désordres symboliques contemporains observés, parmi lesquels l’autisme prend sa place.

Tout ceci n’est cependant dû qu’à une grave erreur de perspective, que les autistes précisément viennent nous forcer à reconsidérer, en nous invitant à tourner la page de l’efficacité destructive et binaire portée par la modernité depuis trois cent quatre-vingts ans exactement - soit depuis la publication du Discours de la Méthode - et les diverses monstruosités qu’elle a fini par engendrer, pour recentrer notre humanité dans ce qui la fonde substantiellement : une intersubjectivité refondée.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, page 44

[ signifiant maître dénié ] [ perversion ] [ sécularisation ] [ conséquences néfastes ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

discours scientifique

Ce qui est désigné par ce fossé irréductible qui sépare les structures du langage du monde auquel elles renvoient est l’impossibilité ontologique pour un langage quel qu’il soit de renfermer au sein de sa structure le monde en soi, autrement dit de dire tout du monde, en établissant une identité entre l’attelage signifiant-signifié et le référent (entre le mot et la chose pour faire court). Cela règle définitivement le fantasme immémorial et infantile qui n’est que l’expression d’un nihilisme masqué, de réaliser l’impossible coalescence entre l’absolu de l’en-soi et sa diffraction représentative, forcément plurielle et relative, puisque par essence la représentation n’est pas la chose, en tant qu’elle signale (re-présente) une absence. Seules les mathématiques, dont la structure signifiante a été immédiatement repérée par Pythagore comme un cas limite au sein duquel la formulation ne se distingue pas du référent désigné et ne forme qu’un avec lui, ont pu être investies de la propriété bien étrange de permettre d’échapper à l’incertain, au relatif, au transitoire et au corruptible : à la mort, donc, c’est-à-dire – et notre époque en tire le vin amer chaque jour davantage – à la vie. Cette propriété se paye au prix d’un formalisme asséchant – c’est-à-dire au prix d’un réel contenu différentiel - dans la mesure où les mathématiques se caractérisent essentiellement par des notations certes diffractées et multiples, mais en dernier ressort tautologiques [Cette caractéristique tautologique a cependant été depuis mise à mal par le théorème d’incomplétude de Kurt Gödel qui interdit depuis sa démonstration de pouvoir créditer les mathématiques d’une autoréférentialité absolue. Autrement dit, il faut postuler obligatoirement, pour pouvoir les fonder, une extériorité aux mathématiques, ce qui n’est que reculer pour mieux sauter et les renvoie elles aussi au niveau de leur fondement à la question de l’origine.]. Le vertige ontologique propre à la période moderne caractérisée par sa soumission à la Mathesis universalis de Descartes, est porteur de cette profonde envie d’en finir avec la finitude, la souffrance, l’altérité, le différentiel, la mort, en un mot la vie. Cette mathématisation à outrance du monde moderne et contemporain portée par une techno-science envahissante a voulu, de gré ou de force faire passer le réel sous les fourches caudines de cette propriété qu’ont les mathématiques d’assurer la coalescence entre la représentation et l’objet – au prix que l’on sait. Il est d’ailleurs fort intéressant de remarquer comme je l’esquissais plus haut que cette fascination pour l’identité langage/monde réimporte subrepticement et de la manière la plus inattendue aux frontières les plus extrêmes de la rationalité le fantasme archaïque présubjectal et infantile de la fusion matricielle initiale. Or les structures du réel ont la propriété de résister tenacement aux tentatives de viol qu’une rationalité ivre d’elle-même – rationalisme serait plus pertinent - prétend leur faire subir : le référent situé dans l’en-soi appartient au domaine de l’être, de l’incontournable vérité de l’être, de ce qui précède fondamentalement, de ce qui donc relève ontologiquement de la question de l’Origine. Le seul moyen de le contourner est de l’ignorer et de prétendre qu’il n’existe pas. Il en résulte alors un désarrimage radical de l’attelage signifiant-signifié vis-à-vis du référent qui seul est l’intangible garant de la vitalité du langage. Celui-ci dès lors se nécrose, et la structure amputée signifiant-signifié qui subsiste fait boucle sur elle-même, le signifié involutif et pathologique assumant une fonction pseudo-référentielle. Il en résulte une évanescence du réel, consécutive à l’évanescence référentielle. La destructivité sur l’en-soi du monde qui en résulte est effrayante. On comprend à présent aisément à quel point le postulat moniste initial de ma proposition est validé : quand une traction est exercée sur les instances représentatives du langage dans le sens de leur assèchement formaliste, c’est le monde en soi qui en face mécaniquement s’effondre et envahit l’ordre symbolique du fait de la torsion de la médiane nouménale qui en résulte, provoquant son déplacement (hachures). On peut remarquer au passage que l’augmentation du taux de prévalence de l’autisme s’explique ici passivement, et donne une justification suffisante à l’exonération de toute culpabilisation des parents d’enfants atteints de ce trouble : une personne présentant certaines fragilités la prédisposant éventuellement à l’emprise de l’autisme, mais qui y aurait échappé en d’autres temps, s’y trouve ici fatalement vouée du fait de ce déplacement (silhouette). Car l’évanescence référentielle provoque mécaniquement l’évanescence du père (P grisé), en raison du fait que ce qui est absenté n’est plus repris en charge dans l’ordre de la représentation.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, pages 61-62

[ émancipation imaginaire ] [ auto-institution fantasmatique ] [ conséquences ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

infox

Avons-nous une information économique indépendante? Cet ouvrage est un guide sans complaisance pour comprendre l’était réel de l’économie — inflation, chômage, propriété, retraites, contenus sponsorisés — loin du chichi et du marketing.

Si vous avez fait le plein d’essence dernièrement, vous avez vu la pompe indiquer 130, voire 140 francs suivant la taille de votre réservoir. Pourtant, votre coût de la vie est mal reflété par les statistiques de l’inflation. Celle-ci était déjà une réalité de votre quotidien avant le Covid et avant la guerre en Ukraine, mais l’indice officiel ne vous renseignait que peu sur votre pouvoir d’achat.

L'immobilier s'est envolé

Depuis quelques années, vous avez sans doute constaté que les prix de l’immobilier ont fortement augmenté en Suisse. Vous aurez noté que certes, les taux hypothécaires s’affichent au plancher, à 1%, mais que les jeunes couples peinent à emprunter à la banque pour acquérir un bien à 1 million, s’ils gagnent moins de 180'000 francs. Peut-être avez-vous vu passer le fait qu’en Suisse, la part des ménages propriétaires de leur logement est tombée de 48% à 37% sur la décennie. Ailleurs, les problématiques sont similaires. En France, le logement ne pèse que 6% dans l’indice calculé par l’Insee, alors que chez une partie des locataires, la part des loyers est de 20% du budget et chez une partie des propriétaires, le remboursement des emprunts s’élève à 25% du budget.

Les primes maladies en forte hausse

Vous avez peut-être aussi vu que les primes maladie en Suisse se sont envolées (de 70%) alors même que l’inflation officielle était donnée à 0%, entre 2008 et 2018, et que les salaires n’ont pas été ajustés en conséquence. Vous avez peut-être cherché l’indice des primes maladie de la Confédération, calculé séparément, mais vous avez vu que même lui traduit mal l’impact beaucoup plus fort des hausses de primes sur les bas revenus que sur les hauts revenus, et que son utilité s’avère limitée.

Vous aurez peut-être vu que le nombre de ménages subventionnés pour payer l’assurance maladie a doublé depuis 1996, ce qui peut étonner dans un pays aussi riche que la Suisse. Le nombre de bénéficiaires a augmenté deux fois plus vite que la population, et le montant du subside moyen versé par assuré a triplé depuis 1996.

Et l'inflation, dans tout ça?

Une statistique de l’inflation qui, dans les pays développés, n’informe pas sur le coût de la vie, car elle exclut à peu près tout ce qui monte (assurances, logement, bourse, et dont l’indice étroit exclut l’alimentation et l’énergie): qu’est-ce que cela apporte, à part une image lustrée, peu en phase avec le quotidien de millions de ménages et peu propice à une adaptation des salaires?

Vous avez peut-être constaté que vos avoirs de 2ème pilier n’avaient pas beaucoup bénéficié de l’envolée phénoménale de la bourse ces dix dernières années. La priorité des caisses de pension a été d’alimenter les réserves pour longévité, et c’est tant mieux, mais ça met à mal le lieu commun qui veut que "quand la bourse monte, on est tous gagnants".

Les salariés, grands perdants du siècle

Vous saviez peut-être qu’à cotisations égales, les assurés d’aujourd’hui toucheront 30% moins de deuxième pilier que les générations précédentes. Et que la part de la population directement exposée à la bourse via des portefeuilles d’investissements ne dépasse pas les 10% aux Etats-Unis et probablement aussi en Europe, confirmant que la bourse n’est pas une richesse collective et que la stagnation des salaires a détérioré le pouvoir d’achat de ceux, largement majoritaires, qui dépendent exclusivement de ce revenu.

Peut-être avez-vous également noté que les chiffres du chômage en Suisse, donnés à 2,5%, n’incluent pas les inactifs et les fins de droit, sortis des statistiques, et ne tiennent pas compte du phénomène de sous-emploi, des CDD chez les jeunes ou du chômage des seniors, qui sont en nette hausse.

Dans cet ouvrage il est question de tous ces chiffres qui minimisent les aspects moins reluisants de notre économie, et dont j’observe la faible valeur informative depuis deux décennies de journalisme économique.

Les fake news économiques, un fléau moderne

Tout cela pour dire que la désinformation économique existe dans les pays développés. Les statistiques officielles sont aussi enjolivées, parfois: les déficits budgétaires européens ont été retouchés par tous les pays de l’UE, et pas seulement par la Grèce. On fait dire beaucoup de choses à une statistique de PIB, alors que sa croissance est souvent surestimée par une inflation calculée trop bas.

On publie le chiffre initial du PIB, puis sa version révisée et plus correcte vient plus tard ; mais seul le chiffre initial, souvent trop flatteur, sera largement diffusé. Un PIB devrait être complété par nombre d’indicateurs démographiques et de développement humain si l’on veut avoir une image réaliste de la performance d’un pays.

Du côté corporate, lorsqu’on lit un rapport annuel d’entreprise, on comprend vite que tant de transparence va nous noyer. Parfois, certains rapports annuels font 500 pages, et pourtant, l’essentiel n’y figure pas toujours, ou n’est pas facile à trouver. Les comptes de Credit Suisse ne disaient rien de l’exposition au fonds spéculatif Archegos, qui lui a valu une perte de 5 milliards.

Les comptes d’UBS ne disaient pas un mot de l’exposition aux subprimes américains, qui a duré des années et a constitué une part majeure des profits du groupe. Chez la plupart des multinationales, beaucoup trop de pages technico-légales noient l’information pertinente des comptes, et encore plus de pages sur la responsabilité sociale et environnementale assomment le lecteur par un marketing qui confine dans certains cas au greenwashing. C’est pourquoi j’ai voulu attirer l’attention des lecteurs, à travers cet ouvrage ici résumé, sur les nombreuses imperfections de l’information économique et financière.

Comment bien s'informer aujourd'hui en matière économique?

De nombreux autres exemples sont abordés dans le livre, et notamment le cas des fuites des paradis fiscaux divulgués par des consortiums de journalistes sur la base de sources anonymes, la question du financement des médias et des conflits d’intérêts potentiels, la manipulation des cours de l’or et ses conséquences, les campagnes de désinformation orchestrées par des agences de propagande de plus en plus actives, l’essor du marketing et de la publicité qui ne pose nul problème en soi, sauf quand ces contenus pénètrent l’information économique indépendante, et aussi l’essor des entreprises en tant que médias, avec des moyens démultipliés, et la question de l’indépendance de l’information.

Comment bien s’informer aujourd’hui en matière économique? Cet ouvrage sans complaisance se veut un guide face à toutes ces façons qu’a l’information, dans les pays développés, de se brouiller, de se diluer, de s’embellir, de perdre son indépendance, son objectivité, son utilité sociale et son rôle au service de l’intérêt public. La politisation des chiffres et l’embellissement des statistiques officielles sont souvent masquées par l’extrême mathématisation des indices.

On croirait qu’il s’agit de sciences dures, apolitiques, alors qu’en réalité, derrière chaque chiffre, il y a des postulats et des choix de société. Mieux s’informer sur l’état réel de nos sociétés, recouper les informations, n’a jamais été aussi primordial. Après avoir lu cet ouvrage, vous ne prendrez plus les statistiques officielles ou les concepts à la mode pour argent comptant. Et c’est tout ce que je vous souhaite. 

Auteur: Zaki Myret

Info: Désinformation économique, février 2022, éditions Favre. https://www.blick.ch/

[ idées fausses ] [ hyperinflation ] [ contrevérités ] [ euphémismes ] [ pouvoir informationnel ] [ soft power financier ] [ Helvétie ] [ dissimulation ]

 

Commentaires: 0

Ajouté à la BD par miguel

indéterminisme

L'essor des thérapies quantiques
Basée sur les découvertes de la physique quantique, une nouvelle façon de se soigner fait de plus en plus parler d'elle. Son postulat : nos cellules émettent des informations, qui déterminent notre état de santé et sur lesquelles il est possible d'agir. Explications.
"Il y a dix ans, on m'a diagnostiqué un lupus érythémateux, une maladie auto-immune chronique, raconte Lucia, une artiste de 50 ans. Depuis, suivie à l'hôpital, j'en étais arrivée à prendre onze médicaments par jour... Il y a six mois, un ami est venu me voir bouleversé après avoir essayé une nouvelle technique de soin qui, disait-il, n'avait rien à voir ni avec la médecine conventionnelle, ni avec les médecines naturelles. Une "machine" donnait des résultats dont l'exactitude l'avait dérouté. Je suis cartésienne et je n'ai pas peur des expériences nouvelles. J'ai donc consulté un thérapeute qui utilise cet appareil de biofeedback. En quelques minutes, l'écran a affiché clairement tout mon parcours médical ! Puis cette machine a effectué un traitement très étrange, consistant à envoyer des "informations" dans le corps. Après quelques séances, la plupart de mes symptômes ont disparu et, aujourd'hui, avec l'accord de mon médecin, je ne prends plus qu'un médicament par jour."
Un diagnostic global
Un appareil capable d'effectuer un diagnostic précis et de traiter aussi rapidement une maladie auto-immune ? Si un cas ne vaut pas pour tous, les résultats sont étonnants. Et ce n'est qu'un des aspects de cette approche de la santé physique et psychique, qui se répand au point que certains médecins et chercheurs n'hésitent plus à dire qu'un changement de paradigme est en train de s'opérer. Le premier congrès sur les thérapies quantiques d'Aix-en- Provence, en novembre 2010, a réuni des scientifiques du monde entier, parmi lesquels l'équipe du professeur Luc Montagnier, prix Nobel de médecine 2008. Depuis, les livres sur le sujet, les congrès affichant complets, les appareils de biofeedback ou les méthodes quantiques se multiplient...
Les "thérapies quantiques", ou la "médecine quantique", nous demandent de voir la vie, la santé et la maladie d'une tout autre façon : notre corps n'est plus un assemblage d'organes à traiter séparément, comme le fait la médecine conventionnelle, c'est un champ vibratoire et énergétique constitué de milliards de particules de lumière - des photons - qui échangent en permanence des informations, un univers lumineux dans lequel l'esprit et la matière ne font qu'un. Avec une idée clé : ce ne sont pas les échanges biochimiques de nos cellules qui déterminent notre état de santé, mais les informations qu'elles se communiquent entre elles. Ici, l'origine de la maladie n'est donc pas un problème purement biologique, mais un défaut d'information ; le symptôme n'est qu'une réaction à ce dernier.
Pour celui qui ne connaît pas le monde scientifique, l'idée peut sembler délirante. Pourtant, elle repose sur des dizaines d'années de recherches, commencées il y a un siècle avec Albert Einstein et ses travaux sur la nature de la lumière. Au fil des décennies, la physique quantique - qui décrit le comportement des atomes et des particules subatomiques - s'est développée en marge de la physique classique, car elle ne répond pas aux mêmes règles. La plus importante, pour comprendre le fondement de la médecine quantique : les ondes électromagnétiques sont en même temps des photons. Ces photons du corps humain sont loin d'être des vues de l'esprit : au cours des années 1970, Fritz-Albert Popp, un biophysicien allemand, a découvert l'existence de ce qu'il a appelé les " bi photons ", des particules de lumière émises par nos cellules, qu'il a réussi à filmer. Ces minuscules courants lumineux, invisibles à l'oeil nu, portent les informations et contrôlent notre organisme. Mais pas n'importe comment.
Des capacités d'auto guérison stimulées
L'une des découvertes les plus importantes de la physique quantique, reprise et développée dans la thérapie quantique, est, en effet, la théorie des "champs énergétiques" : ce sont eux qui organisent et contrôlent notre corps. Ils forment un tout. En somme, le corps humain est une structure organisée d'informations. Ce que les Chinois ont compris depuis longtemps avec l'acupuncture, qui traite les flux d'énergie du corps ; ou les Indiens, avec leur médecine ayurvédique qui traite le "corps de lumière" et ses chakras...
Les appareils de biofeedback quantiques sont conçus pour détecter les ondes électromagnétiques, les " fréquences " émises par chacune des cellules de notre corps. Lorsque certaines sont brouillées ou " fausses ", l'appareil renvoie des fréquences " justes " afin de corriger le problème. Imaginez que vous ayez un coup de déprime. Vous appelez votre meilleur ami. Ses paroles rassurantes vous remontent le moral et vous retrouvez assez d'énergie pour reprendre le cours normal de votre vie. L'aide reçue n'est pas " physique ", mais vient des mots réconfortants. Or ce flot d'informations vous a été transmis par les fréquences du téléphone. Voilà, de manière imagée, comment fonctionnent les appareils de médecine quantique : ils envoient des ondes extrêmement fines qui " parlent " à nos cellules et leur transmettent des informations, elles-mêmes portées par les photons. Pour reprendre la métaphore, on pourrait dire que les fréquences sont les phrases réconfortantes de votre ami ; et les photons, les mots, avec leur sens.
Si la thérapie quantique fait usage d'appareils électroniques de plus en plus sophistiqués, comme le Scio, le Korotkov, le Mora ou le Life, cette approche de la médecine n'est pour autant pas mécaniste : les machines ne fonctionnent pas seules. " En "dialoguant" avec notre champ d'informations, ces appareils stimulent nos capacités d'auto guérison, explique la journaliste et conférencière Lynn McTaggart, auteure du Lien quantique (Macro 2012). Mais rien ne peut se faire sans la présence d'un médecin ou d'un thérapeute. " Une interaction d'autant plus importante que cette nouvelle vision de la santé, donc de la vie, implique non seulement une relation entre le corps et l'esprit, mais l'union fondamentale de l'esprit et de la matière.
J'ai testé un appareil de biofeedback
Des électrodes, un écran d'ordinateur, des graphiques... Notre journaliste, Odile Chabrillac, a confié son corps au Scio, une machine destinée à diagnostiquer les défaillances de l'organisme et à rééquilibrer ce dernier.
" Sitôt arrivée dans le cabinet du praticien en biofeedback qui utilise le Scio, l'un des appareils de médecine quantique dont on parle le plus en ce moment, me voilà assise confortablement et harnachée d'électrodes aux chevilles, aux poignets et sur le front. Face à moi, un mur blanc sur lequel est projeté un écran d'ordinateur rempli d'informations et de graphiques. Adrian M., le thérapeute, me soumet d'abord à un questionnaire sur mon âge, mes habitudes d'hygiène de vie, les maladies et opérations passées, mon niveau de stress... Puis, pendant trois minutes, je suis priée de rester la plus détendue possible, car cette machine va envoyer des milliers d'infirmes fréquences dans mon organisme - plus de dix mille !-, comme autant de questions auxquelles chacune de mes cellules et chacun de mes organes devront répondre. Je ne sens rien, juste de légers picotements...
Le Scio fait un bilan très complet, physiologique et émotionnel. Il affiche d'abord des chiffres sur l'énergie, la pression sanguine, l'hydratation, l'oxygénation, le pH, la vitalité et les échanges cellulaires, la capacité de régénération de mon organisme... L'ensemble est plutôt bon, voire très bon. Ouf ! En revanche, il relève que je suis légèrement intoxiquée par certains produits, le chlore en particulier, et que mon niveau de stress est bien trop important. Le thérapeute me montre les graphiques et m'explique que le stress peut avoir un impact sur ma thyroïde, mon système endocrinien, et sur certains lobes cérébraux, avec un risque de maladie d'Alzheimer. Car cette machine évalue aussi les problèmes potentiels de chaque individu.
Adrian M. me rassure : les appareils quantiques sont fondés sur les probabilités, non sur des certitudes absolues : " C'est comme la météo, m'explique-t-il, si l'on nous annonce de la pluie, mieux vaut prendre un parapluie, mais cela ne veut pas dire qu'il pleuvra ! " Pendant près d'une heure, la machine va procéder au traitement, en renvoyant des fréquences justes pour corriger celles qui sont faussées. En somme, elle donne au corps les bonnes réponses aux questions qu'elle a posées. Là encore, je ne sens rien. La séance dure une heure et demie. (Compter 60 € la séance - prix donné à titre indicatif).
Bilan : si mon mode de vie est plutôt sain, je suis capable de m'empoisonner l'existence, au sens littéral du terme, avec mes " prises de tête ". Voilà ce qui est étonnant ici : cet appareil tient autant compte des facteurs physiologiques et biologiques que de mes émotions, de mon état d'esprit mental et moral, de certains problèmes psychologiques. La fin de la séance se conclut par quelques conseils supplémentaires : boire davantage, bouger, pratiquer le yoga si je peux, rythmer mon mode de vie en fonction de la saison. Le Scio suggère quelques remèdes homéopathiques pour optimiser mon état corporel, mon mental et mon énergie. Sortie de la séance enthousiaste et détendue, je me suis sentie épuisée tout l'après-midi et me réveillerai le lendemain matin légèrement courbaturée. Rendez-vous a été pris pour vérifier si mes efforts auront déjà eu un véritable impact sur mon corps et mon esprit.

Auteur: Pigani Erik

Info:

[ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

réfléchir

Pourquoi le slow thinking gagne

Être rapide, c'est travailler fort et être intelligent - de la réponse aux appels 24 heures sur 24 à la présence d'esprit la plus vive dans les réunions. La lenteur est pour les paresseux, les oisifs, voire les abrutis. Lorsque nous parlons de ralentir, nous entendons généralement qu'il faut y aller doucement, certainement pas être plus productif.

Tout le monde se souvient de l'histoire de la tortue et du lièvre, mais personne ne semble avoir appris la leçon qu'elle enseigne : La lenteur l'emporte.

Il s'avère que la fable a raison. La recherche suggère régulièrement que la pensée dite lente exige une pensée plus disciplinée et donne lieu à des décisions plus productives que les réactions rapides, qui sont moins précises ou moins utiles. Et la lenteur de la pensée - comme la tortue, lentement mais sûrement - fait son chemin par de nouvelles interventions dans des domaines aussi disparates que la justice pénale, le sport, l'éducation, l'investissement et les études militaires.

La maîtrise de cette dualité dans la nature humaine est au cœur du slow thinking. Son principal partisan, l'ancien psychologue de Princeton Daniel Kahneman, seul non-économiste à avoir reçu le prix Nobel d'économie, décrit ces impulsions contraires dans son livre "Thinking, Fast and Slow" de 2011. La plupart du temps, affirme Kahneman, les gens comptent sur la rapidité - mais c'est en fait la lenteur qui permet de prendre de meilleures décisions. "Shane Frederick, professeur à la Yale's School of Management et collaborateur fréquent de Kahneman, explique comment les gens peuvent aller au-delà de l'impulsion la plus évidente qu'ils ressentent d'abord".

La lenteur de la réflexion n'a rien de nouveau pour les amateurs de sport, grâce au best-seller de Michael Lewis en 2003, "Moneyball", qui explique comment le manager Billy Beane a transformé les Oakland Athletics à court d'argent en une équipe compétitive utilisant l'analyse de données. Et après que l'approche délibérée de Beane ait révolutionné le baseball, les chercheurs et les réformateurs sont confiants dans le fait que le même genre de résultats peut être observé lorsque le concept est appliqué à des problèmes sociaux majeurs, comme la violence chronique ou les taux élevés de décrochage chez les élèves du secondaire.

Une nouvelle étude menée par des chercheurs de l'Université de Chicago, de Harvard, Northwestern et de l'Université de Pennsylvanie a révélé que le slow thinking pour les jeunes hommes vivant dans les quartiers les plus touchés par les gangs de Chicago réduisent leurs chances de participer à la criminalité et améliorent leurs résultats scolaires jusqu'à 44 %.

Le programme Becoming a Man du "Chicago nonprofit Youth Guidance's Becoming" a réalisé les deux tiers des interventions cognitives recensées dans l'étude, ainsi que celles qui étaient statistiquement les plus efficaces.

La Maison-Blanche a récemment donné 10 millions de dollars à la ville de Chicago, en partie pour étendre et étudier Becoming a Man, qui dessert environ 2 000 élèves dans près de 40 écoles publiques. Le programme, lancé en 2004, cible les jeunes garçons de la 7e à la 12e année qui ont été signalés par les enseignants et les conseillers comme ayant de mauvais résultats scolaires et à risque d'être victimes de gangs.

La violence qui s'empare de la ville est un problème qu'il est temps de repenser radicalement : Il y a eu plus de 200 meurtres cette année et plus de 1 269 fusillades.

À l'école secondaire Bronzeville Scholastic Institute High School, dans le South Side de Chicago, Adeeb Odeh, conseiller en orientation, a récemment lancé à ses élèves un défi de fin d'année pour mettre en œuvre ce qu'ils ont appris lors de la dernière année. Depuis le début de l'année scolaire, ils ont effectués plusieurs étapes avec des exercices chronométrés visant à tester leur concentration et leur patience sous pression.

Dans un exercice, les élèves empilént 36 gobelets en plastique en pyramide en trois minutes. Ceux qui ont réussi ont gardé un rythme régulier jusqu'à la dernière coupe, tandis que la peur de la pression du temps a conduit les autres à se précipiter et à voir leurs pyramides s'effondrer. Un autre exercice exigeait que les élèves tirent à tour de rôle des lancers francs dans un panier de basket-ball tandis que d'autres les tentaient de les décourager activement en criant et en tenant des pancartes genre "Tu ne peux pas le faire" ou "Boo !"

"C'est comme une métaphore de la vie réelle, où il faut se concentrer en se distrayant ", dit Jannie Kirby, porte-parole de l'orientation des jeunes.

Anuj Shah, professeur à l'Université de Chicago, coauteur de l'étude Becoming a Man, note que les étudiants du programme apprennent à penser lentement en prenant conscience de leurs impulsions réflexives dans des situations très variables.

"Très souvent, nous nous laissons emporter par l'instant présent " dit Shah. "Le principe fondamental [de la pensée lente,¨] est que nous avons des réactions automatiques qui dictent nos pensées, nos sentiments et notre comportement. Si tu peux comprendre ta pensée, tu peux comprendre comment elle affecte ton comportement."

Selon Shah, une astuce pour prendre conscience de ces tendances automatiques, qu'il s'agisse de colère ou de précipitation dans les postulats, est de prendre un moment et de s'imaginer sortir de la situation qui se présente. "Mettez la décision dans son contexte. Pensez à ce qu'une caméra verrait et ce qu'un tiers neutre verrait."

Faire ses devoirs, c'est-à-dire raisonner étape par étape à travers un problème, dit Frederick, est l'essence même du slow thinking. "c'est étonnant de constater à quel point les opinions ont tendance à s'adoucir rapidement lorsqu'il y a des données à portée de main ", dit-il. "C'est le moyen parfait d'échapper à vos préjugés. Quel que soit votre parti pris, ça n'a pas d'importance - mettez les chiffres et cela neutralise efficacement tout parti pris que vous pourriez avoir."

Frederick est peut-être mieux connu pour avoir créé le "Test de Réflexion Cognitive", une mesure simple pour savoir si une personne résout un problème "rapidement avec peu de délibération consciente" ou par la réflexion et la pensée lente. Kahneman inclut le test dans son livre.

Il a trois questions :

1) Une batte et une balle coûtent 1,10 $. La batte coûte 1,00 $ de plus que la balle. Combien coûte la balle ? ____ cents

2) S'il faut à cinq machines cinq minutes pour faire cinq gadgets, combien de temps faudrat-il à 100 machines pour faire 100 gadgets ? ____ minutes

3) Dans un lac, il y a une plaque de nénuphars. Chaque jour, le champ double de taille. S'il faut 48 jours pour que la plaque couvre tout le lac, combien de temps faudra-t-il pour que la plaque couvre la moitié du lac ? ____ jours

Ce qui rend ces questions par ailleurs simples si délicates, c'est qu'elles sont conçues pour attirer l'intuition humaine vers des mauvaises réponses spécifiques. Sur les 3 428 personnes interrogées par Frederick dans le cadre de son étude, 33 % ont raté les trois questions et 83 % ont raté au moins une des questions. Parmi les diverses universités auprès desquelles Frederick a recueilli des données, c'est au MIT que le pourcentage d'étudiants ayant répondu correctement à toutes les questions était le plus élevé - seulement 48 pour cent.

Frederick précise que les répondants ont donné les réponses intuitives, incorrectes, suivantes : 1) 10 cents*, 2) 100 minutes et 3) 24 jours. La bonne réponse à la première question est 5 cents. La bonne réponse à la deuxième question est cinq minutes. La bonne réponse au troisième problème est 47 jours.

Frederick partage souvent ce test lors de conférences pour des entreprises intéressées par sa recherche - et la plupart des gens donnent encore des réponses intuitives, mais erronées. "Votre intuition n'est pas aussi bonne que vous le pensez," dit-il. "Je pense que le test ébranle la confiance, et que cela seul peut les amener à passer plus de temps et à voir les choses sous un angle nouveau."

Les avantages de la lenteur de la pensée ne sont pas universellement acceptés. Dans son livre de 2005, Malcolm Gladwell, auteur de Blink, affirme que les meilleurs décideurs ne sont pas ceux qui traitent le plus, mais ceux qui prennent les décisions rapidement.

Frederick rétorque que la lenteur de la pensée est encore utile dans les situations d'urgence et qu'elle sera toujours plus importante que la vitesse, en ce sens qu'elle permet de vérifier constamment notre intuition faillible. "Stop, drop, and roll", ("Arrête, lâche et bouge.") par exemple, est enseigné aux enfants dès leur plus jeune âge pour les former à la sécurité incendie, mais ces étapes spécifiques ne sont pas nécessairement intuitives. La RCR n'est pas non plus vraiment intuitive et exige du raisonnement.

Dan Kahan, un professeur de droit de Yale qui étudie également la cognition, suggère que Gladwell et ses partisans lents pourraient avoir raison. Il croit que la rapidité et la lenteur sont également bénéfiques et imparfaites, les qualifiant de "non pas discrètes et hiérarchiques, mais réciproques et intégrées".

Mais Kahan n'est pas d'accord avec Frederick sur la question de savoir si les préjugés peuvent être complètement éliminés par le slow thinking - ou par toute autre méthode. "Nos préjugés ne sont presque jamais ouverts à l'observation, a dit M. Kahan. "Vous pouvez être patient mais toujours partial."

Kahan va jusqu'à affirmer que, dans certains cas, penser plus longtemps et plus intensément ne peut que servir à renforcer ses préjugés. Le danger, c'est quand les gens ne peuvent pas identifier ce qui est le produit de la lenteur de la pensée et ce qui est le produit de la rapidité. Comme l'a dit Kahan, "Les gens ne manquent jamais de preuves de leur côté."

Néanmoins, le slow thinking se répand lentement. Dan Lovallo, professeur à l'Université de Sydney et chercheur principal à l'Université de Californie à Berkeley, a récemment utilisé ses propres recherches pour démontrer dans un rapport McKinsey Quarterly que les chefs d'entreprise et les investisseurs auront plus de succès s'ils réfléchissent lentement et stratégiquement, en s'en remettant aux analyses et aux modèles commerciaux pour surmonter les biais humains qui sont " bien ficelés et qui ne répondent pas à leurs besoins ". Les préjugés utilisent le "raisonnement associatif plutôt que le raisonnement logique", a déclaré M. Lovallo dans un courriel. "La meilleure façon de surmonter les préjugés est de former une catégorie de référence pour des situations similaires. Cela change la discussion et peut être utilisé pour prévoir."

La pensée lente s'est également infiltrée dans les programmes de MBA militaires, qui utilisent le Cognitive Reflection Test de Frederick dans leur programme d'études. Une revue de la Central Intelligence Agency sur le site Web de l'organisation qualifie le livre de Kahneman de "must read" pour les agents de renseignement.

Pour l'instant, les élèves du Bronzeville Scholastic de Chicago apprennent à appliquer la pensée lente à des scénarios plus immédiats et moins complexes, comme ne pas se battre. Au défi de fin d'année, les élèves devaient se rappeler leur formation sur "'énergie guerrière et l'énergie sauvage", explique le conseiller Adeeb Odeh, la première étant l'énergie sage et contrôlée d'un penseur lent, la seconde étant l'énergie automatique et réactive d'un penseur rapide.

Odeh a vu cette idée transformer le comportement de ses élèves au cours de l'année scolaire : J'ai vu des élèves du programme dans le couloir qui éloignaient leurs camarades du début d'une bagarre, leur répétant et leur rappelant simplement : "Energie guerrière, énergie guerrière". ('Warrior energy, warrior energy.)

Auteur: Kadioglu Tara

Info: Boston Globe, 26 juillet 2015, *(Si la balle coûte 10 cents et que le bâton coûte 1,00 $ de plus que la balle, alors le bâton coûtera 1,10 $ pour un grand total de 1,20 $. La bonne réponse à ce problème est que la balle coûte 5 cents et la batte coûte - à un dollar de plus - 1,05 $ pour un grand total de 1,10 $.)

[ réfléchir avant d'agir ]

 
Commentaires: 5
Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel