Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1297
Temps de recherche: 0.0448s

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0

chronos

Le temps est une différence de pression : la respiration comme média environnemental dans "Exhalation" de Ted Chiang

Dans la nouvelle de science-fiction "Exhalation" de Ted Chiang, publiée en 2008, le souffle est le médiateur de la fin du monde.

Ce texte raconte l'histoire d'une espèce mécanique alimentée par l'air. Chaque jour, les membres de cette espèce consomment deux poumons d'aluminium remplis d'air, et chaque jour, ils les remplissent à nouveau à partir d'un réservoir caché sous terre. Leur univers comporte de nombreuses villes et quartiers, mais il est délimité par un "mur de chrome solide" qui s'étend jusqu'au ciel. Un jour, une cérémonie traditionnelle du nouvel an, qui dure toujours exactement une heure (chronométrée avec la précision mécanique de l'espèce), dure quelques minutes de plus. C'est surprenant. La nouvelle se répand et ils découvrent que la manifestation s'est prolongée dans tout leur univers. Les horloges elles-mêmes semblent fonctionner correctement ; c'est plutôt le temps lui-même qui s'est ralenti d'une manière ou d'une autre. Le narrateur, un anatomiste, soupçonne que la vérité réside dans le cerveau des espèces et décide de procéder à une autodissection avec un appareil de sa conception. De même que la nature de la conscience échappe aux humains organiques, elle échappe aussi aux automates de Chiang. Certains pensent que leur esprit est inscrit sur d'innombrables feuilles d'or dans leur cerveau ; d'autres soupçonnent que le flux d'air agit sur d'autres supports plus subtils. Au cours de son autodissection, le narrateur découvre la vérité : la conscience n'est pas inscrite dans le cerveau, mais constituée par la circulation de l'air dans le cerveau, qui forme et reforme les connexions électriques avec une plasticité infinie. De cette révélation, le narrateur déduit que le temps lui-même ne ralentit pas, mais que c'est plutôt la force de l'air à travers le cerveau qui ralentit, altérant la cognition. La deuxième loi de la thermodynamique : l'entropie augmente dans un système fermé, ce que l'univers doit être en fait. Chaque action, pensée et mouvement augmente l'entropie de leur univers, "hâtant l'arrivée de cet équilibre fatal", c'est-à-dire la possibilité de la mort.

Comme de nombreuses histoires de Chiang, "Exhalation" explore les conséquences culturelles étendues d'un concept scientifique, en l'occurrence l'entropie. À travers les principes physiques de la thermodynamique, la respiration met en scène une ironie tragique dans le système mondial. Le travail de maintien d'un type particulier de vie rend toute autre vie impossible. Je lis "Exhalation" comme une riche archive de possibilités théoriques médiatiques, car Chiang relie les problèmes de la technologie, de la médiation, de la conscience, de l'incarnation, de la temporalité et de l'environnement. La respiration est le pivot qui maintient ces concepts ensemble, et en particulier, selon moi, la relation de la respiration avec le temps. Dans cet article, je lis "Exhalation" à la fois à travers et en tant que théorie des médias pour suggérer que la mesure et la perception du temps, qui sont depuis longtemps des problèmes fondamentaux pour les études sur les médias, sont devenues des questions environnementales urgentes. Nous pouvons appréhender ces temporalités environnementales par le biais de la respiration, qui ne fonctionne pas de manière linéaire mais plutôt récursive, franchissant une certaine échelle dans sa répétition.

"Exhalation" met en scène deux types de temps différents : celui de la perception intérieure et celui de la comptabilité extérieure. D'une part, le temps est le sentiment incarné qu'un moment suit le suivant. D'autre part, le temps est la comptabilité de technologies théoriquement impartiales, elles-mêmes étalonnées par rapport à des phénomènes physiques. Le fait que le monde d'"Exhalation" soit entièrement mécanique permet à Chiang d'établir une analogie fluide entre ces deux sens du temps. Le drame découle donc de la découverte par le narrateur que ces sens, qui partagent supposément un substrat matériel, sont devenus non calibrés. Le véritable substrat, découvre le narrateur, n'est pas la matière en elle-même, mais plutôt la différence entre les matières. "Voici pourquoi", écrit le narrateur,

...j'ai dit que l'air n'est pas la source de la vie. L'air ne peut être ni créé ni détruit ; la quantité totale d'air dans l'univers reste constante, et si l'air était tout ce dont nous avons besoin pour vivre, nous ne mourrions jamais. Mais en réalité, la source de la vie est une différence de pression atmosphérique, le flux d'air des espaces où il est épais vers ceux où il est mince.... En réalité, nous ne consommons pas d'air.

En tant que matière, l'air ne s'épuise pas. Au contraire, les actions de l'espèce évacuent la différence, augmentent l'aléatoire et éliminent ainsi l'action mécanique et sa temporalité concomitante.

À première vue, l'approche du temps de Chiang est conforme à certains modèles fondamentaux des études sur les médias, pour lesquels le temps est un effet secondaire de sa technologisation. Pour Harold Innis, critique du début du XXe siècle, par exemple, les supports d'enregistrement disponibles dans une civilisation donnée déterminent les relations possibles avec le temps. Une civilisation basée sur le papier favorise la synchronisation sur de grandes distances, facilitée par la vitesse de circulation du papier, tandis qu'une civilisation basée sur la pierre serait plus diachronique, favorisant les supports statiques qui couvrent de grandes étendues de temps. Les idées d'Innis ont inspiré des approches ultérieures des médias numériques. Pour le théoricien des médias Wolfgang Ernst, les médias numériques sont "critiques en termes de temps", dans la mesure où ils dépendent d'un timing précis pour fonctionner. Le temps numérique est mesuré par des cristaux de quartz qui marquent les tics du temps UNIX, qui compte le début de l'histoire à partir du jeudi 1er janvier 1970, lorsque le carbone atmosphérique ne mesurait que 325 ppm. Ernst fait la distinction entre le temps "dur" et le temps "mou", c'est-à-dire le temps imposé aux machines par la physique et le temps inventé par les machines dans leur fonctionnement. Si le temps dur de la physique se poursuit en dehors de l'objet médiatique, notre appréhension de ce temps est inéluctablement liée à la durabilité du temps mou, généré par les machines.

Je suis loin d'être le seul à m'opposer à ces modèles de temporalité des médias. Je pense, par exemple, à l'argument de Sarah Sharma selon lequel ces modèles sont obsédés par la vitesse : l'hypothèse selon laquelle les médias accélèrent la temporalité et réduisent l'espace, rapprochant les cultures et effaçant le temps passé à attendre que les messages soient transmis. Pour Sharma, la vitesse est trop simple ; en revanche, elle affirme que le principal sujet temporel des médias est la synchronicité, dont la négociation et le maintien exigent un travail culturel et matériel constant. La relation au temps, tout comme la relation à l'environnement, est liée à la position politique de chacun. Elle est également liée au corps. John Durham Peters affirme que le corps humain lui-même est un support temporel, qui calibre une multiplicité vertigineuse d'échelles de temps. Les rythmes circadiens intègrent la "pulsation" géophysique du jour et de la nuit dans les êtres vivants. Vu dans ce cadre, le rythme inconscient de la respiration n'est qu'une partie d'un système médiatique complexe de temporalité qui se calibre et se recalibre constamment. Je souhaite faire progresser le rythme dans mon analyse. Shintaro Miyazaki affirme que le rythme a toujours été un aspect central, bien que méconnu, de la culture algorithmique. Le rythme supplante la notion d'"horloge" ou d'"impulsion", qui ne rendent pas compte de la négociation constante entre les états de la matière caractéristiques des médias numériques. Le rythme nomme alors le travail actif de synchronisation de la médiation. Il s'ensuit que nous pourrions caractériser le drame d'"Exhalation", et peut-être notre crise climatique actuelle, comme une désarticulation du rythme.

Au fur et à mesure que la nouvelle de la découverte du narrateur se répand, la panique face à la nouvelle possibilité de mort se répand également. Pendant quelques pages, "Exhalation" devient une allégorie manifeste des réactions humaines au changement climatique. "Nombreux sont ceux qui réclament une limitation stricte des activités afin de minimiser l'épaississement de notre atmosphère", écrit le narrateur, "les accusations de gaspillage d'air ont dégénéré en rixes furieuses". Une secte quasi-religieuse, les Inverseurs, gagne en popularité. Dans une parodie de la géo-ingénierie, ils construisent un moteur qui comprime l'air, augmentant ainsi la pression atmosphérique globale. "Hélas, observe le narrateur, le moteur lui-même était alimenté par l'air du réservoir..... Il n'a pas inversé l'égalisation, mais a permis d'augmenter la pression de l'air. Il n'a pas inversé l'égalisation mais, comme tout ce qui existe dans le monde, l'a exacerbée". Face à l'impossibilité d'empêcher la dégradation de l'atmosphère, les mécaniciens tentent de remodeler le cerveau lui-même, parallèlement aux adaptations transhumaines aux climats inhospitaliers. Tout cela n'aboutit à rien. Le narrateur termine l'histoire en spéculant sur un avenir possible, lorsqu'un explorateur intrépide franchira le mur de chrome et transformera le système fermé en un système ouvert. Les automates pourraient revivre, grâce à l'introduction d'une nouvelle pression, d'un nouveau souffle, mais leur esprit et leur culture ne survivraient pas.

Mais le souffle n'est rien d'autre qu'une technologie de survie. Je pense ici au travail de Jean-Thomas Tremblay sur le souffle en tant que technique féministe, ou aux archives d'Ashton Crawley sur le souffle dans les pratiques culturelles et spirituelles des Noirs. Les logiques médiatisées de sa mise en péril, de sa vulnérabilité et de sa force sont, comme l'affirme Tremblay, "autant une déclaration phénoménologique qu'une déclaration historique et culturelle". À ces archives respiratoires, j'ajouterais le souffle en tant que médiation environnementale. Cette médiation se produit à différents niveaux, depuis le brouillage par la respiration des frontières entre les médias et le corps jusqu'à la respiration en tant que modèle de réflexion sur le temps environnemental. Il est essentiel de noter qu'il ne s'agit pas d'un temps avec un début ou une fin, mais plutôt de cycles imbriqués de naissance et de décomposition, la médiation s'empilant sur elle-même. Quels nouveaux rythmes peuvent émerger ?

La temporalité de la conclusion d'"Exhalation" apporte une réponse provisoire. Les derniers paragraphes offrent une "valédiction"*, le narrateur s'adressant directement au lecteur. "Le même sort que celui qui m'a frappé t'attend-il ?" demandent-ils. Alors que la majeure partie du récit se déroule au passé, la fin s'inscrit dans un futur imaginé et s'adresse au lecteur à l'impératif : "Visualisez tout cela la prochaine fois que vous regarderez le monde gelé qui vous entoure, et il redeviendra, dans votre esprit, animé et vital. Telle est la temporalité de la spéculation, que Chiang présente comme un mode de réflexion sur l'effondrement écologique, qui ne prend pas l'effondrement comme une donnée et ne croit pas naïvement qu'il peut être évité. Il y a une fin, et il y a ce qui vient après la fin. L'après-fin est un espace de possibilités endeuillées :

Notre univers aurait pu glisser vers l'équilibre en n'émettant rien de plus qu'un sifflement silencieux. Le fait qu'il ait engendré une telle plénitude est un miracle, qui n'a d'égal que l'univers qui vous a donné naissance.

Respirer, c'est être médiateur du temps, pour soi mais aussi pour les autres. C'est être le médiateur de la possibilité du prochain souffle à venir, c'est coordonner et relier une multitude de systèmes naturels et culturels. Dans le cadre de la crise climatique, nous savons désormais de manière concluante que nos médias industriels sont à bout de souffle. Le défi que nous lance "Exhalation" est de les refaçonner pour qu'ils puissent soutenir le souffle.

Auteur: Moro Jeffrey

Info: https://jeffreymoro.com/blog/2022-04-01-defense-talk/ - 7 Jan 2021. Présentation faite dans le cadre du panel Environmental Media au MLA 2021, qui s'est tenu virtuellement. Pour les références du texte, voir directement sur le site. Trad Mg et DeepL. *Formule qui recommande le destinataire à la protection divine

[ homme-machine ] [ cadence ] [ science-fiction ] [ analyse de texte ] [ réchauffement climatique ] [ Gaïa ] [ tétravalence ] [ accélérationnisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

FLP post-Peirce

L'"ouverture" du dictionnaire intriqué FLP, nourrie entre autres de l'idée que chaque mots est quasi-esprit (voire symbole), procède beaucoup de l'inventaire et d'un recensement exhaustif, celui de tous les termes créés et imaginables sur cette planète - surtout avec le double apport des intraduisibles et des appellations scientifiques pointues et spécialisées. Tout ça ramené au français. Vocables qui dans l'idéal devraient être utilisés, et sémantiquement précisés, via ces axes, par ordre d'importance. 

1) leur sens-étymologie. Avec une contextualisation animale si possible, distanciation auto-analytique du mammifère humain intégré dans le concert général de la vie. Par exemple les mots-idées-concepts comme foyer-logis-abri seront associés avec ceux de terrier-nid-tanière.

2) leur contexte, syntaxique, syntagmatique,  bio-taxonomique même,  pour qui s'y intéresse et a le temps. En prenant au mieux en compte les paramètres amenés par l'auteur de l'extrait : temporels, topologiques, de formacja, situation politique, sexe, etc.  

3) les caractéristiques de celle ou celui qui insère et étiquette l'extrait sur FLP, c'est à dire qu'il doit s'agir une démarche réflexive sincère, qui pourra éventuellement être analysée par d'autres sous cet angle. 

Ces trois points précédant bien sûr les éventuelles corrections de participants qui aident ainsi à préciser-organiser les mots-langage-tiercités de notre espèce-communauté par la grâce des possibilités de classements intriqués de FLP. Tiercités elles-mêmes images-symboles linguistiques des détails du décor-réalité-priméité que le cerveau humain-secondéité formule-symbolise, avec un langage et des mots toujours plus affinés. 

Et puis, dans le but de développer une meilleure ossature de classification de cette lexicologie perspectiviste, vint l'idée de réfléchir à un concept de tétravalence sémantique, suceptible de dépasser et consolider la puissante triade sémiotique de C.S. Pierce. 

Parce que la quadrivalence, symétrique, d'apparence moins souple et insaisissable que le ternaire, semble offrir, à l'image des bases de l'ADN, de bonnes pistes en terme de taxologie et de développements taxinomiques. Surtout en des heures où l'intrication quantique a montré de bien des manières combien le langage humain est devenu insuffisant, dépassé, dès qu'il doit gérer des problématiques contre-intuitives. En clair : la pensée binaire qui sous-tend nos idiomes-raisonnements, malgré toutes ses possibilités de nuances, a beaucoup de peine à empoigner sémantiquement le contre-intuitif quantique comme, par exemple, ce qu'a pu montrer Alain Aspect. (Qui a reçu le prix Nobel avec 2 autres confrères ce mois. Bravo à eux).  

Il suffirait donc d'intégrer un 4e élément à la triade de Peirce. Hum... 

Attardons nous d'abord sur le concept de tiercité ; qui englobe les infinis signes-signaux possibles générés par les interactions-chocs entre acteurs-objets-secondéités issus de la priméité : vents contre arbres, météorites percutant la terre, hommes vs animaux, réflexion contre idées, animaux entre eux, insectes avec végétaux, etc. Signes qui peuvent se transformer en routines, plus ou moins éphémères, dont certaines deviendront des traces-symboles, qui s'organiseront ensuite pour "durer un peu plus", à l'image du langage des hommes. On remarquera au passage qu'existe au niveau de chaque monade humaine un processus d'itération-imprégnation-adaptation qui va en progressant, se stabilise, et régresse avec l'âge, bref le canevas de toutes nos vies. Ici monades-bulles-existences humaines aptes à laisser des "combinaisons sémantiques" dans le corpus linguistique communautaire. Bribes que certains formuleront par le terme assez dérisoire de postérité. 

Tiens, voilà que nous avons dérivé, l'air de rien, pour nous retrouver en pleine secondéité humaine. Examinons alors l'autre bout de la triade, la priméité, ce réel-source-décor, dont tout est issu ?...  

Thème à discuter avec un alien, qui nous décrira probablement quelque chose qui n'a rien à voir avec ce que nous connaissons, certes. Mais - avec la distanciation et le temps nécessaires - nous devrions certainement pouvoir relier SA priméité-réalité à lui avec NOTRE priméité-réel à nous. N'est que parce qu'on imagine mal plusieurs "sources primordiales", même dans un GRAND TOUT infini, emplis de multivers intriqués, en constantes et étourdissantes interactions qui mélangent vitesses et échelles. Source indicible et insondable au point de tant "séparer" les entités émergées en son sein que ces dernières seraient incapables de communiquer entre elles ? Allons allons... Des étages et hiérarchies infinies oui...  Mais stop. 

Ici encore nous voilà en train d'exprimer notre propre reflet-image de secondéités qui observent, formulent, et projettent.

Qu'est-ce alors que cette secondéité ? Ce JE-NOUS monade. Mais aussi tout sujet-élément-idée-entité susceptible d'interagir avec moi, lui, ou les autres. C'est à dire tout élément jailli de la priméité-univers... Comme ce caillou au sol, ou la civilisation alien des lignes précédentes ? Interactions, répétons-le, à la sources des signes-tiercités-langage (humain limité certes ici... ) Aptes à s'auto-analyser ?!?!?!

Signes qui nomment-définissent les "choses-autres" avec des mots "quasi-esprits"... En amont de manipulations sémantiques qui s'ensuivront. Hum Hum...

On remarquera qu'au 3e étage tiercitaire des signes-idées analysés-partagés, communications mimétiques et autres, les possibilités sont aussi infinies qu'aux deux autres niveaux. On notera aussi que beaucoup de ces idiomes-signes consensus ne peuvent se développer qu'au travers de longs développements évolutifs, bien plus encore pour qui voudra aller au-delà des pulsions-interaction basiques - de l'ordre de la physique pure et du simple bon sens gravitationnel - avant de devenir pulsions de vie, de survie surtout. Tout ça se développant/envoyant/recevant des signes que bientôt le langage organisera. Combien de temps, d'éons, nécessaires pour arriver au héron et sa magnifique spécialisation de chasseur de poissons ? Bestiole capable de montrer à ses petits comment attirer les proies aquatiques en mettant des insectes dans l'eau. J.L. Borges aura bien aidé à le comprendre. L'existence, les existences ensembles sont des signes qui se mélangent et parfois se répondent.

Nous voilà donc avec le langage externalisé, humain ; magnifique engin télépathique communautaire trans-époques, (oui oui je vous parle, à vous chères âmes de l'an 2050... ah ah ah). Mais aussi oeillère-buttée, puisqu'on dirait bien que la bulle linguistique humaine nous isole via quelque chose qui ressemble à un solipsisme de la race, une monade collective. Le déséquilibre planétaire dont nous sommes source et victime apparaissant comme un de ses effets. Monade de primates, secondéité collective, machin qui "agit" bien plus qu'il interagit, alors qu'elle devrait probablement comprendre que son action sur la matrice qui l'a fait émerger se retourne contre elle. Dialogue terre-hommes où ces derniers feraient mieux de tenir compte des "signes" de Gaïa. Gamin qui réalise qu'il devrait faire un peu plus attention à ce que lui exprime, sans mots, sa Moman !!

Tout ceci est fort intéressant... mais le parcours des lignes qui précèdent ramène sans désemparer vers nous qui lisons-écrivons ces lignes, encore et toujours représentants du concept de secondéité, de la prison humaine (même si dans un système ternaire chaque pointe peut être pensée comme centrale, ah ah ah).

En bref nos rodomontades sémantiques semblent faire un peu trop abstration du reste, surtout à partir de l'ère industrielle. Déspiritualisation, sécularisation ?

Précisons et resituons : il est question d'une secondéité-hommes, issue de la priméité matrice univers-terre, en train de développer son propre champ exponentiel de tiercités, dont Internet fait la démonstration chaque jour. (Ainsi pour FLP, le web, hors les films et images, n'est qu'un amas sémantique, souvent désordonné, babélien... géré numériquement par des machines cybernétiques. Web au sein duquel - ou à la pointe duquel -, notre application se propose d'ordonner-classifier-recenser les mots-pensées en les intriquant. L'homme singe ne change pas, il fait des listes, encore... Désormais plus compliquées.) 

Mais de modification de la triade de Peirce, rien ne semble possible. Trop costaud.

Résignons-nous, c'est d'ici - au sein même de nos sémantiques, qu'il faudra chercher à identifier... puis établir-asseoir-développer... un système tétravalent en faisant bien gaffe de demeurer dans le langage, strico sensu. Français même, afin de ne pas (trop) nous perdre. 

Résumons : une secondéité bien comprise : objet, être, participant, interprétant, réfléchisseur, observateur... va nécessairement - en fonction d'infinis paramètres, (pour faire simple nous dirons "en fonction des contextes") - GENERER quelque chose. Autrement dit une secondéité, planète, arbre, fusée lunaire, caillou, civilisation, atome, (Ah non, pas atome... kr kr kr, le quantique échappe à tout ça), une fois en interaction avec une autre secondéité, ou avec un des autres pôles de notre triplette peircéenne, va ORIENTER le résultat de l'interaction. A l'image du météore qui percute l'océan et dont la trajectoire est modifiée-stoppée par la masse liquide. Où, inversément, de l'océan secoué par le météore. Ainsi, s'infléchissant et s'influençant mutuellement, les deux acteurs d'un choc-interaction enfantent, délivrent, consciemment ou pas, des tiercités. Ici vagues et tsunami, vapeurs et tremblement de terre... On constatera au passage que ce genre de tiercité océano-sismiques convient mieux à une approche téléologique terrestre (pensons à l'extinction des dinosaures) que nos tiercités linguistiques, beaucoup plus futiles et superficielles d'apparence. Mais c'est à voir.

Se pose ici aussi, nécessairement peut-être, une question étonnante, évidente : celle de la responsabilité de secondéités telles que la notre. Mais pas que. Interrogation qui ouvre les perspectives, vers l'inconscient, l'épigénétique, le panpsychisme, l'animisme... La science-fiction....  Question qui exponentialise aussi les possibilités de bascule historique, de déclics...  de déclenchements, d'effets papillons infimes, suceptibles de modifier notre réél et sa continuité... Telle la mouche écrasée qui inverse la polarité de la planète. Nous pensons que cette question ouvre un peu plus les possibilités d'une intervention externe, invisible, qui pourra orienter les choses, que ce soit souvent ou pas. Il est vrai que les dernières découvertes sur les mécanismes épigénétiques montrent que de telles interactions - invisibles et souvent contre-intuitives - se passent sans cesse, que ce soit entre nous et les fourmis ou entre le soleil et les végétaux, etc. Mais basta.

Une secondéité-OBSERVATRICE, disons évoluée comme nous, par la magie des signes organisés et du langage, développe sa réprésentation-compréhension du monde. Elle crée et développe son univers consensuel, transmute du réel-matériel en langage esprit-virtuel. 

C'est donc dans l'espace sémantique humain que nous nous proposerons de traquer les émergences tétravalentes, en partant de celles qui se trouvent DEJA (souvent en germe à l'image du chiasme et éventuellement de l'oxymoron) au sein des raisonnements du langage des interprétants-humains. Solide assise - au centre de la triade peircéenne - pour une tâche au très long cours, celle de notre propre auto-analyse via l'étude-classification sémantique du corpus linguistique d'humains-transcripteurs-secondéités, vus comme une "race du verbe" fondamentalement tétravalente

Monade des hommes formulée-présentée ci-dessous, au centre, de trois manières assez similaires.

a) priméité   -  secondéité  (récepteur, émetteur, influenceur.... )                               -  tiercité

b) réalité    -  humains responsables-irresponsables, humanistes, dictateurs, etc...             -  effets sur le monde 

c) signifiant -  interprétant (pouvoir-ouverture-transpositeur-orienteur-confusion ontologique-déverrouillage mental)  -  signifié     

Nous nous référerons à ces trois exemples comme socle au développement de notre idée, gardant en tête que si l'humanité est, comme tout élément, plus ou moins transitoire, la durabilité et les effets de sa lexico-littérature - par comparaison avec les développements de la vie-adn - sont risibles. Ce qui n'empêche rien. 

Au-delà de l'analogie comme quoi ADN et écriture sont "transgénérationnels", on entrevoit les incroyables possibilités de bases tétravalentes combinées sémantiquement, quelque chose qui dépasse littéralement les auteurs de ces lignes, à savoir une forme de mémoire évolutionnaire sur le temps long (comme les requins), mémorisée/structurée sur d'interminables chaines ADN, chaines aptes, par exemple, à réutiliser une imprégnation-expérience vécue très en arrière dans le temps.

Il s'agit selon nous d'une entreprise pré-mémétique.

Auteur: Mg

Info: sept oct 2022 - réflexion possiblement liée à la notion de septénaire, articulation binaire + ternaire dont FLP s'amuse à recenser les déclinaisons

[ citation s'appliquant à ce logiciel ] [ méthodologie ] [ métalinguistique ] [ prospective ] [ au coeur de FLP ]

 
Commentaires: 4
Ajouté à la BD par miguel

théorie du tout

Concevoir l’infini, un exemple de l’évolution future du psychisme humain terrestre

I – LES MATHS

Pour introduire le sujet, posons tout d’abord notre regard sur les mathématiques. C’est un paragraphe que vous pouvez survoler voire sauter si vous être allergique à cette science. Mais je vous conseille de lire ce qui suit.

Sur internet on trouve de nombreuses publications sur le sujet des infinis, voici l’une d’entre elles :

La mécanique quantique est assez contre intuitive, Richard Feynman, un physicien du projet Manhattan (premières bombes atomiques américaines) disait : ‘’personne ne comprend vraiment la physique quantique’’.

Il en est de même pour la conception de l’infini, ou plus exactement DES INFINIS.

Officiellement, le premier mathématicien à avoir étudié l’infini est Georg CANTOR, également inventeur de la théorie des ensembles.

Notamment en utilisant un outil mathématique nommé ‘’bijection’’, il démontra que deux ensembles infinis ne sont pas obligatoirement de même taille, l’un peut être plus grand que l’autre.

Et même infiniment plus grand.

On terminera cette courte introduction par le paradoxe suivant, assez contre intuitif aussi :

L’ensemble des ensembles, composé d’une infinité d’ensembles infinis et d’ensembles finis ; n’est PAS UN ENSEMBLE et EN PLUS n’est pas nécessairement de taille infinie, d’une certaine façon on peut considérer qu’il ne comporte qu’un seul objet. C’est une question d’optique, de regard, doit-on le voir sous sa caractéristique fondamentale bien qu’il ne soit pas un ensemble, ou bien l’observer par ses composants ?

Et cela introduit notre sujet principal.

II - SPIRITUALITÉS ET RELIGIONS TERRESTRES ACTUELLES

Cet article avance la thèse que les concepts humains terrestres actuels sont très essentiellement finis, réducteurs, étroits, limités et limitants, ceci dans toutes les directions.

Quelques exemples :

Les religions monothéistes

Elles se livrent régulièrement à des guerres sanglantes toutes plus abominables les unes que les autres, alors qu’elles sont très proches les unes des autres dans leurs concepts fondamentaux. Dans leur pratique, les adhérents à ces croyances ont par exemple la prétention de COMPRENDRE ‘’DIEU’’ et de connaitre le bon comportement à avoir, par exemple massacrer les autres humains s‘ils ne partagent pas la même nuance de croyance, et aliéner la moitié de leur propre assemblée : les femmes. La religion chrétienne est sortie de ce type d’interprétation des textes ‘’sacrés’’ tout à fait récemment et encore très partiellement. Il y a de nombreux courants dans la bulle de réalité chrétienne, et on voit sans peine qu’il y a de l’immondice marécageuse à peu près partout : Vatican, église orthodoxe russe dirigée par un mafieux notoire, etc.

En islam, les textes fondamentaux insistent sur l’HUMILITE : la créature ne peut pas prétendre comprendre le Créateur ni sa Création, EN AUCUNE FAÇON. Cette idée, voire ce DEVOIR est constamment et méthodiquement piétiné par la grande majorité des prélats religieux de ce courant de croyances. Mais il y a des individus éclairés, de ci de là.

Les religions monothéistes disparaitront TOTALEMENT de la terre lorsque la révélation collective et intégrale surviendra sur cette planète. C’est une des raisons pour lesquelles tout ceci prendra des siècles, probablement des millénaires : l’humain terrestre n’est pas apte, dans son stade actuel, à intégrer l’assemblée des civilisations cosmiques avancées.

LES BOUDDHISMES

Formés d’un grand nombre de courants, de pratiques, de rituels et de croyances, structurés par une hiérarchie et des règles coercitives qui n’ont parfois rien à envier dans leur stupidité et leur barbarie aux religions monothéistes, ces bouddhismes sont bel et bien des religions à la mode terrestre.

Le corpus de croyances repose sur une absence de Créateur, une absence d’ego (qu’il faut annihiler, bien qu’il n’existe pas), une pseudo malédiction nommée ‘’incarnation’’ et des objectifs simplistes : la réalisation, les nirvanas, la libération…

Implicitement et pour l’essentiel ces croyances avancent l’idée que les incarnations se passent sur terre, dans la dimension physique, jusqu’à l’atteinte de l’objectif principal.

Les pratiquants de ce courant de croyance, dans leur immense majorité, ne se souviennent aucunement de leurs incarnations antérieures (ou alors de manière très vague qui flirte avec la rêvasserie), n’ont aucune idée des réalités multidimensionnelles et sont incapables de voyager eux-mêmes dans les autres mondes. Ils pratiquent une forme de discipline mentale nommée ‘’méditation’’ et atteignent parfois un état que personnellement j’ai pu expérimenter à l’adolescence, en quelques semaines, sans livre, sans dogme, sans rituel, sans maître. A l’occasion de ces pratiques enfantines, ils tombent parfois dans de minuscules cases nommées ‘’non-dualisme’’, ‘’Nirvana’’, etc, et y stagnent durant des périodes variables.

Je ne fais pas le malin, je suis tombé dans les mêmes trous au cours de vies passées sur cette planète.

A ma connaissance, parmi cet océan de médiocrité collective, il y a et il y a eu quelques individus éclairés, comme Sri Aurobindo et Mira Alfasa, sa compagne.

Je disais récemment à Sraddhalu RANADE que même parmi les followers de Sri Aurobindo, j’observais des croyances insensées, de la bigoterie, des rituels stupides, et que j’estimais que moins de 1% de ses followers comprenaient véritablement au moins une partie des enseignements. Sans trahir le caractère privé de nos conversations, je peux dire que Sraddhalu n’est pas loin de formuler le même constat, de voir les mêmes évidences.

Mais lui le fait avec beaucoup de douceur, de subtilité, de nuance, de tact, de sensibilité et d’intelligence. Vous voyez ce que je veux dire…

III - SPIRITUALITÉ UNIVERSELLE

Au-delà de la minuscule bulle de réalité des humains terrestres, il y a autre chose de beaucoup plus large, beaucoup plus intelligent, beaucoup plus complexe, et beaucoup plus rigoureux aussi.

Ce texte a la prétention d’en résumer les lignes essentielles. Il est issu de la Mémoire d’incarnations passées dans d’autres civilisations cosmiques, de Voyages dans des dimensions physiques et non physiques, et de contacts avec une grande variétés d’êtres non locaux.

POINT 1

La Création est infinie et éternelle. Elle n’a jamais commencé et ne finira jamais. Elle n’a aucune limite dans quelque direction que ce soit. Bien qu’infinie, elle se déploie à l’infini dans toute l’éternité. Elle n’est caractérisée par aucune limite ni frontière.

POINT 2

La nature de la création est pure conscience. Il n’est rien qui ne soit pure conscience, il n’est rien qui soit plus ou moins conscient, il n’y a pas d’endroit sans conscience ou avec moins de conscience.

POINT 3

La Création comporte une infinité d’êtres. Ils existent de toute éternité, bien qu’en nombre infini. Il n’y a pas de ‘’production’’ de nouveaux êtres, des êtres qui n’auraient pas existé ‘’avant’’ un certain moment dans l’éternité.

POINT 4

Ces êtres sont éternels : ils n’ont pas eu de commencement et n’auront pas de fin. Il n’y a pas d’être qui peuvent ‘’disparaitre’’ ou bien être ‘’absorbés-dissous’’ dans le divin ou quelque chose de similaire. Ces concepts sont issus d’un psychisme primitif, profondément ignorant et transitoirement très limité : l’esprit humain terrestre.

POINT 5

La Création et le Créateur sont indistincts et distincts en même temps. D’un de ces points de vue on peut considérer qu’il n’y a qu’un seul être dans la Création.

POINT 6

Les possibilités d’explorer l’éternité sont infinies. L’incarnation est UNE DE CES POSSIBILITÉS, mais il en existe une infinité d’autres. Dans le nombre infini des êtres, on rencontre une infinité de personnes qui ne passeront JAMAIS par l’incarnation et ne le feront JAMAIS. Les croyances humaines terrestres sont limitantes, ignorantes, minuscules.

POINT 7

Il existe une infinité de cosmos, de dimensions. Chaque dimension est un cosmos infini en soi. Notre univers physique n’est ABSOLUMENT PAS ce que notre science locale croit actuellement. Il n’y a pas eu de début et il n’y a pas de frontière, ces concepts sont locaux et temporels.

POINT 8

Bien qu’il existe une infinité d’êtres, une infinité de civilisations, une infinité de structures mentales possibles rien que dans la dimension physique, il existe une spiritualité universelle, des principes éthiques universels partagés par tous les êtres dans toutes les dimensions. Ils se déploient différemment dans leur complexité suivant la ‘’hauteur vibratoire’’ des univers dimensionnels.

POINT 9

Corolaire des points précédents : la planète terre et l’humanité terrestre n’est le centre de rien du tout et n’est aucunement un endroit particulier au sein de la Création (ou alors TOUT dans la Création est un endroit particulier).

Il n’y a AUCUN sous-groupe d’humains qui formerait un ensemble ‘’d’élus’’ au sein de la Création. Ces croyances résultent d’une ignorance et d’une stupidité abyssales très caractéristiques d’une civilisation encore très primitive.

POINT 10 : CONCLUSION

Le choc majeur auquel cette humanité terrestre se prépare, étape par étape, est un choc métaphysique d’une ampleur et d’une portée encore inconcevables par un psychisme humain terrestre. C’est le choc de l’INFINI, le choc avec DES INFINIS.

Concevoir ces infinis devra nécessairement passer par la dissolution intégrale de la quasi-totalité des croyances locales actuelles. Du psychisme humain présent, il ne restera que de faibles traces dans quelques millions d’années.

Si l’humanité terrestre existe encore.

                                               ***

Infinis et bulles de réalités – La suite

EXERCICE PRATIQUE

1°) Le contexte

L’INTENTION est une donnée essentielle de la conscience. Elle donne une direction à chaque instant de l’éternité. Elle est la principale force agissante, voire la seule. Sa puissance ne peut être comparée à rien d’autre.

L’INTENTION est souvent-toujours polymorphique, ceci à l’insu de la conscience ordinaire expérimentée dans un corps humain terrestre. Elle a de multiples facettes, et EN PARTICULIER celles qui confinent la conscience dans la bulle de réalité locale.

Ainsi un humain terrestre pratiquant une forme ou une autre de ‘’méditation’’ issue d’un système de croyances spécifiques, d’un système de rituels, d’un système hiérarchique, d’un système vestimentaire et décoratif comme des colliers, des chapelets, des chapeaux, tout cela confine l’expérimentateur dans la bulle de réalité locale. Ceci quelque soit le corpus de croyances ou de pratiques, quel que soit l’objet affiché de la ‘’méditation’’. Ce seul mot, ‘’méditation’, ce seul concept terrestre n’a aucun caractère universel et colore l’Intention. De manière automatique, le pratiquant est enfermé dans une bulle minuscule, parce qu’il en a eu l’intention.

Exemples : ‘’non-dualité’’, ‘’état de grâce’’, ‘’vide incréé’’, ‘’fusion avec le tout’’, etc.

Les exceptions sont très rares, mais elles existent, car les effets de l’Intention sont impeccables. Si l’intention s’est exonérée de tout concept terrestre, local, la personne sortira nécessairement de la bulle de réalité dans laquelle elle était confinée à son insu.

2°) Méthode

Ne pas qualifier ni nommer le process, ni le comparer à quoi que ce soit.

Placer fermement la conscience à 2 années-lumière de la planète terre, à distance d’observation de la bulle de réalité locale. Observer dans toutes les directions.

Ne pas forcer, ne pas faire d’effort, juste poser l’intention d’être EN DEHORS de la bulle locale. Ne pas supposer, ne pas imaginer, ne pas verbaliser.

Vous n’avez pas besoin de SAVOIR à quoi ressemble le cosmos à la distance de deux années-lumière de la terre. Ne supposez RIEN sur ce qu’il est, sur son aspect, ses caractéristiques. Quoi que vous puissiez concevoir, imaginer, déduire à l’aide de la ‘’logique’’ terrienne, vous avez 100% de chances de vous tromper.

Il y a possiblement une inertie, une rupture progressive de l’attraction gravitationnelle générée par la bulle de réalité locale. S’installer fermement dans l’intention, et laisser le processus suivre les directives de la Conscience.

Détachement de la bulle locale, tout d’abord le ‘’vide’’ environne la personne. Il s’agit d’une zone de transition. La transition, la zone d’interface est un des espaces universels expérimentés par la conscience.

Il y a une inertie, mais elle peut être très brève. Le temps d’un ‘’clic’’, et la personne est en dehors. Cette rapidité, cette facilité vient UNIQUEMENT de la structure intime de l’intention posée. Elle n’est en AUCUN CAS la conséquence d’un quelconque mérite, d’une quelconque position ‘’spirituelle’’ avantageuse de l’expérimentateur. Pas plus que de ses habits, ses colliers, sa chevelure, ou du livre ‘’sacré’’ qui se trouve sur une étagère ici ou là, à proximité de son corps. Tous ces objets, ces concepts, n’ont qu’un seul effet : l’enfermement de la personne dans une réalité, une bulle de réalité minuscule, Y COMPRIS LE PRÉSENT TEXTE.

L’INTENTION JUSTE est la condition nécessaire et suffisante.

……

N’essayez pas cette méthode, mettez-la en pratique. Ne posez pas dans votre intention l’idée d’’’ESSAYER’’ car tout ‘’essai’’ suppose un échec, un tâtonnement.

C’est une excellente préparation au voyage hors du corps, et aussi un excellent moyen de Voyager au-delà des marécages physico-énergétiques une fois que vous êtes sorti du corps biologique.

Quoi que soient les mémoires et les automatismes des structures physico-énergétiques de votre enveloppe biologique, il y aura possiblement une inertie au retour. Vous devrez vous ré-habiller des concepts, des intentions et des idées locales pour interagir à nouveau dans la bulle de réalité d’ici. Il est possible aussi que cela s’opère le temps d’un clic.

A vous de voir

Auteur: Auburn Marc

Info: Sur son fil FB, 11 novembre 2023

[ ésotérisme ] [ voyage astral ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

Dauphins : cerveau, conscience et intelligence

Les scientifiques rassemblés à San Diego, Californie, à l'occasion du Congrès annuel de l'Association Américaine pour l'Avancement de la Science, en ce mois de février 2010, ont conclu que le dauphin était un mammifère aussi évolué et intelligent que l’humain. Pour confirmer leurs assertions, ils se fondent notamment sur le développement phénoménal de son lobe frontal, siège de la pensée consciente et sur sa capacité que partagent seulement les grands singes et les éléphants de se reconnaître dans un miroir.

Ils insistent aussi sur le fait que le dauphin Tursiops Truncatus, (mais que sait-on des autres cétacés, de leur langage, de leurs cultures si riches et si variées?.) dispose du plus gros cerveau du monde, après celui de l’Homme, selon la théorie du coefficient encéphalique. Méfiance : celle-ci ne tient cependant pas compte des circonvolutions du cortex, largement plus nombreuses chez le cachalot ou d'autres cétacés que chez l'Homme. A la seule aune de ce coefficient, le singe Saïmiri nous dépasserait tous !

Par ailleurs, le carburant du cerveau, c’est le glucose, et à ce niveau, Dauphins et Humains partagent un métabolisme quasiment identique. De telles capacités cognitives, selon les scientifiques de San Diego où, rappelons-le, se trouve également le principal centre de dressage des dauphins militaires aux USA – pose un grave problème éthique quant à la détention forcée en delphinarium de ces remarquables cétacés. Ce point a été évoqué.

Notons que la sur-évolution des cétacés, un espèce née trente millions d'années avant JC, alors que nous ne totalisons au compteur que 160.000 ans en tant qu'Homo Sapiens, selon les dernières données de Pascal Picq, ne se situe pas seulement au niveau de la pensée consciente.

I. L’INTELLIGENCE DES DAUPHINS EN QUESTION

A quel niveau, la barre ?

De vigoureux débats ont régulièrement lieu à propos de l’intelligence du dauphin, où se retrouvent et s’opposent globalement trois opinions : Il y a ceux qui mettent la barre très haut. Ils pensent - peut-être à raison – que les dauphins sont dotés de pouvoirs paranormaux, et transcendent de très loin toutes nos possibilités mentales. Par exemple, pour Jim Nollman, la pensée cachalot étant produite par un cerveau cinq fois plus puissant que le nôtre est forcément cinq fois plus complexe et donc inaccessible à notre compréhension.

Sur un mode nettement moins rationnel et plus égoïste, la mouvance New Age tend à considérer les dauphins comme des extraterrestres arrivant de Sirius pour apporter un message au Monde et servir aux progrès des Hommes. C’est de cette mouvance, malheureusement, qu’est issue la mode des Dolphin Assisted Therapy (DAT) et l’on peut donc craindre que ces idéologies ne servent avant tout à favoriser l’expansion de ce marché.

Il y a ceux qui mettent la barre très bas. Et ceux-là très clairement, ont reçu pour mission de justifier les captures pour les delphinariums ou les massacres des baleines. On lira ainsi avec stupéfaction certaines études réductrices qui ramènent le cerveau du cétacé aux dimensions de celui du hérisson ou tendent à prétendre que les baleines ne sont finalement que de gros "bovidés de la mer", stupides, indolentes et presque insensibles. De même, toute la galaxie de chercheurs et vétérinaires vendus à l’industrie du delphinarium déclarera d’une seule voix que l’intelligence du dauphin ne dépasse guère celle du chien.

Et il y a ceux qui tentent de faire la part des choses... Et notamment d’aborder de manière objective une série de d’études scientifiques ou d’observations de terrain convergentes. En regroupant ces recherches, en les collationnant, en les mettant en perspectives, il devient alors très difficile de croire que les cétacés puissent n’être que des "toutous marins"…

Le frein de l’anthropocentrisme

La disqualification systématique des compétences cognitives des cétacés n’est pourtant pas le fait de seuls baleiniers ou des "dolphin trainers". Certains cétologues et associations (Anne Collet, Greenpeace) adoptent cette position, affirment-ils, par souci d’objectivité. En fait, il semble surtout qu’une sorte de terreur sacrée les saisisse devant l’effondrement de l’un des derniers dogmes inexpugnables du canon scientifique : "l’Homme, mesure de toutes choses, image de Dieu sur terre, est seul doté de conscience et de langage".

"En traçant une limite stricte entre l’Homme et la Bête" ajoute Keith Thomas, "le but principal de nos théoriciens modernes était surtout de justifier la chasse, la domestication, l’ingestion de la chair d’un animal mort, la vivisection – qui devint une pratique scientifique courante dès le 19 ème siècle - et l’extermination à large échelle de la vermine et des prédateurs".

On trouve un peu partout – mais surtout dans le monde de l’édition francophone – de pitoyables gesticulations mentales visant à dénigrer, chaque fois que faire se peut, toute contestation de cette vérité première, aussi évidente que la course du soleil autour de la terre. Innombrables sont les études qui nient que la guenon Washoe, le bonobo Kanzi ou le perroquet Alex puissent parlent de vrais langages. Un article récent allait même jusqu’à contester la notion de "conscience de soi" chez l’animal non-humain et le fait que les expériences de reconnaissance face au miroir puissent avoir valeur de preuve en ce domaine.

Bref, pour beaucoup d’humanistes de la vieille école, la prééminence de l’être humain sur le plan de l’intellect est un dogme, une conviction d’ordre affectif presque désespérée, et non pas une certitude scientifique. L’anthropocentrisme qui fonde toute notre vision du monde nous rend, semble-t-il, incapable d’appréhender la possibilité d’une conscience autre, "exotique" selon le mot de H.Jerison, mais parfaitement complète, aboutie et auto-réflexive.

Pourtant, insiste Donald Griffin : "Il n’est pas plus anthropomorphique, au sens strict du terme, de postuler l’existence d’expériences mentales chez d’autres espèces animales, que de comparer leurs structures osseuses, leurs systèmes nerveux ou leurs anticorps avec ceux des humains".

TECHNOLOGIE ET INTELLIGENCE

Cerveau vaste et puissant que celui du dauphin, certes. Mais encore ? Qu’en fait-il ? C’est là l’ultime argument massue de notre dernier carré d’humanistes qui, très expressément, maintient la confusion entre Intelligence et Technologie. Or nous savons – nous ne pouvons plus nier – que d’autres types d’intelligences existent. On se reportera notamment au passionnant ouvrage de Marc Hauser "Wild Minds : what animals really think" (Allen Lane éditions, Penguin Press, London 2000) qui définit en termes clairs la notion "d’outillage mental". Même si de grands paramètres restent communs à la plupart des espèces psychiquement évoluées, dit en substance l’auteur (règle de la conservation des objets, cartes mentales pour s’orienter, capacité de numériser les choses, etc.), à chaque environnement correspond néanmoins une vision du monde, un mode de pensée propre, qui permet à l’individu de survivre au mieux.

Les écureuils sont capables de garder à l’esprit des cartes mentales d’une précision hallucinante, fondée sur des images géométriques. Les baleines chassent avec des rideaux de bulles, dont le réglage demande une grande concentration et une puissance de calcul peu commune. Les orques et les dauphins ne produisent rien, c’est vrai mais ils sont là depuis des millions d’années, ne détruisent pas leur biotope, vivent en belle harmonie, n’abandonnent pas leurs blessés, ne se font pas la guerre entre eux et dominaient tous les océans jusqu’à ce que l’Homme vienne pour les détruire. Toutes vertus généralement qualifiées de "sens moral" et qui révèlent un très haut degré de compréhension du monde.

Il en est de même pour l’être humain : technicien jusqu’au bout des doigts, champion incontesté de la manipulation d’objets et de chaînes de pensées, adepte des lignes droites, de la course et de la vitesse, il vit dans un monde à gravité forte qui le maintient au sol et lui donne de l’environnement une vision bidimensionnelle.

L’imprégnation génétique de nos modes de conscience est forte : nous avons gardé de nos ancêtres la structure sociale fission-fusion mâtinée de monogamie, la protection de nos "frontières" est toujours assurée, comme chez les autres chimpanzés, par des groupes de jeunes mâles familialement associés (frères, cousins puis soldats se battant pour la Mère Patrie), notre goût pour la science, le savoir et les découvertes n’est qu’une forme sublimée de la néophilie presque maladive que partagent tous les grands primates, et notre passion pour les jardins, les parcs, les pelouses bien dégagés et les "beaux paysages" vient de ce que ceux-ci évoquent la savane primitive, dont les grands espaces partiellement arborés nous permettaient autrefois de nous cacher aisément puis de courir sur la proie...

Mais bien sûr, l’homme est incapable de bondir de branche en branche en calculant son saut au plus juste, il est incapable de rassembler un banc de poissons diffus rien qu’en usant de sons, incapable de tuer un buffle à l’affût en ne se servant que de son corps comme arme, etc.

Ce n’est certes pas pour nous un titre de gloire que d’être les plus violents, les plus cruels, les plus astucieux, les plus carnivores, mais surtout les plus habiles et donc les plus polluants de tous les grands hominoïdes ayant jamais vécu sur cette planète, et cela du seul fait que nous n’avons pas su ou pas voulu renoncer à nos outils mentaux primordiaux ni à nos règles primitives.

Au-delà de nos chefs-d’oeuvre intellectuels – dont nous sommes les seuls à percevoir la beauté – et de nos créations architecturales si calamiteuses au niveau de l’environnement, la fureur primitive des chimpanzés est toujours bien en nous, chevillée dans nos moindres gestes et dans tous nos désirs : plus que jamais, le pouvoir et le sexe restent au centre des rêves de tous les mâles de la tribu...

De la Relativité Restreinte d’Einstein à la Bombe d’Hiroshima

Une dernière question se pose souvent à propos de l’intelligence des cétacés : représente-t-elle ou non un enjeu important dans le cadre de leur protection ?

Là encore, certaines associations s’indignent que l’on puisse faire une différence entre la tortue luth, le tamarin doré, le cachalot ou le panda. Toutes ces espèces ne sont-elles pas également menacées et leur situation dramatique ne justifie-t-elle pas une action de conservation d’intensité égale ? Ne sont-elles pas toutes des "animaux" qu’il convient de protéger ? Cette vision spéciste met une fois encore tous les animaux dans le même sac, et le primate humain dans un autre…

Par ailleurs, force est de reconnaître que l’intelligence prodigieuse des cétacés met un autre argument dans la balance : en préservant les dauphins et baleines, nous nous donnons une dernière chance d’entrer en communication avec une autre espèce intelligente. Il est de même pour les éléphants ou les grands singes mais le développement cognitif des cétacés semblent avoir atteint un tel degré que les contacts avec eux pourraient atteindre au niveau de vrais échanges culturels.

Les seuls animaux à disposer d’un outil de communication relativement similaire au nôtre c’est à dire transmis sur un mode syntaxique de nature vocale – sont en effet les cétacés. On pourrait certainement communiquer par certains signes et infra-sons avec les éléphants, par certains gestes-symboles et mimiques avec les chimpanzés libres, mais ces échanges ne fourniraient sans doute que des informations simples, du fait de notre incapacité à nous immerger complètement dans la subtilité de ces comportements non-verbaux. Tout autre serait un dialogue avec des dauphins libres qui sont, comme nous, de grands adeptes du "vocal labeling", de la désignation des choses par des sons, de l’organisation de ces sons en chaînes grammaticalement organisées et de la création de sons nouveaux pour désigner de nouveaux objets.

Cette possibilité, inouïe et jamais advenue dans l’histoire humaine, est pour nous l’un des principaux enjeux de la conservation des "peuples de la mer" véritables nations cétacéennes dont nous ne devinerons sans doute que très lentement les limites du prodigieux univers mental. Une telle révolution risque bien d’amener d’extraordinaires changements dans notre vision du monde.

Il n’est d’ailleurs pas impossible que notre pensée technologique nous rende irrémédiablement aveugle à certaines formes de réalité ou fermé à certains modes de fonctionnement de la conscience. Comme l’affirme Jim Nollman, il se peut en effet que les cachalots soient capables d’opérations mentales inaccessibles à notre compréhension.

Il se peut que leur cerveau prodigieusement développé les rende à même de percevoir, mettons, cinq ou six des onze dimensions fondamentales de l’univers (Lire à ce propos : "L’Univers élégant" de Brian Greene, Robert Laffont éditeur) plutôt que les quatre que nous percevons ? Quel aspect peut avoir l’océan et le ciel sous un regard de cette sorte ?

Si nous ne leur parlons pas, impossible à savoir.

On imagine la piètre idée qu’ont pu se faire les premiers colons anglais de ces yogis immobiles qu’ils découvraient au fond d’une grotte en train de méditer... Se doutaient-ils seulement à quoi ces vieux anachorètes pouvaient passer leur temps ? Avaient-ils la moindre idée du contenu des Upanishads ou des Shiva Sutras, la moindre idée de ce que pouvait signifier le verbe "méditer" pour ces gens et pour cette culture ?

Les baleines bleues, les cachalots, les cétacés les plus secrets des grands fonds (zyphius, mésoplodon) sont-ils, de la même manière, des sages aux pensées insondables nageant aux frontières d’autres réalités… et que nous chassons pour leur viande ?

On se souvient aussi du mépris profond que l’Occident manifestait jusqu’il y a peu aux peuples primitifs. Les Aborigènes d’Australie vivaient nus, n’avaient que peu d’outils et se contentaient de chasser. Stupides ? Eh bien non ! La surprise fut totale lorsque enfin, on pris la peine de pénétrer la complexité inouïe de leurs mythes, de leurs traditions non-écrites et de leur univers mental... notions quasi inaccessible à la compréhension cartésienne d’un homme "civilisé".

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ] [ Umwelt ] [ hiérarchie ] [ sociologie ] [ xénocommunication ] [ fermeture anthropienne ]

 

Commentaires: 0

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Une nouvelle approche du calcul réinvente l'intelligence artificielle

Par l'imprégnation d'énormes vecteurs de sens sémantique, nous pouvons amener les machines à raisonner de manière plus abstraite et plus efficace qu'auparavant.

M
algré le succès retentissant de ChatGPT et d'autres grands modèles de langage, les réseaux de neurones artificiels (ANN) qui sous-tendent ces systèmes pourraient être sur la mauvaise voie.

D'une part, les ANN sont "super gourmands en énergie", a déclaré Cornelia Fermüller , informaticienne à l'Université du Maryland. "Et l'autre problème est [leur] manque de transparence." De tels systèmes sont si compliqués que personne ne comprend vraiment ce qu'ils font, ou pourquoi ils fonctionnent si bien. Ceci, à son tour, rend presque impossible de les amener à raisonner par analogie, ce que font les humains - en utilisant des symboles pour les objets, les idées et les relations entre eux.

Ces lacunes proviennent probablement de la structure actuelle des RNA et de leurs éléments constitutifs : les neurones artificiels individuels. Chaque neurone reçoit des entrées, effectue des calculs et produit des sorties. Les RNA modernes sont des réseaux élaborés de ces unités de calcul, formés pour effectuer des tâches spécifiques.

Pourtant, les limites des RNA sont évidentes depuis longtemps. Considérez, par exemple, un ANN qui sépare les cercles et les carrés. Une façon de le faire est d'avoir deux neurones dans sa couche de sortie, un qui indique un cercle et un qui indique un carré. Si vous voulez que votre ANN discerne également la couleur de la forme - bleu ou rouge - vous aurez besoin de quatre neurones de sortie : un pour le cercle bleu, le carré bleu, le cercle rouge et le carré rouge. Plus de fonctionnalités signifie encore plus de neurones.

Cela ne peut pas être la façon dont notre cerveau perçoit le monde naturel, avec toutes ses variations. "Vous devez proposer que, eh bien, vous avez un neurone pour toutes les combinaisons", a déclaré Bruno Olshausen , neuroscientifique à l'Université de Californie à Berkeley. "Donc, vous auriez dans votre cerveau, [disons,] un détecteur Volkswagen violet."

Au lieu de cela, Olshausen et d'autres soutiennent que l'information dans le cerveau est représentée par l'activité de nombreux neurones. Ainsi, la perception d'une Volkswagen violette n'est pas codée comme les actions d'un seul neurone, mais comme celles de milliers de neurones. Le même ensemble de neurones, tirant différemment, pourrait représenter un concept entièrement différent (une Cadillac rose, peut-être).

C'est le point de départ d'une approche radicalement différente de l'informatique connue sous le nom d'informatique hyperdimensionnelle. La clé est que chaque élément d'information, comme la notion d'une voiture, ou sa marque, son modèle ou sa couleur, ou tout cela ensemble, est représenté comme une seule entité : un vecteur hyperdimensionnel.

Un vecteur est simplement un tableau ordonné de nombres. Un vecteur 3D, par exemple, comprend trois nombres : les coordonnées x , y et z d'un point dans l'espace 3D. Un vecteur hyperdimensionnel, ou hypervecteur, pourrait être un tableau de 10 000 nombres, par exemple, représentant un point dans un espace à 10 000 dimensions. Ces objets mathématiques et l'algèbre pour les manipuler sont suffisamment flexibles et puissants pour amener l'informatique moderne au-delà de certaines de ses limites actuelles et favoriser une nouvelle approche de l'intelligence artificielle.

"C'est ce qui m'a le plus enthousiasmé, pratiquement de toute ma carrière", a déclaré Olshausen. Pour lui et pour beaucoup d'autres, l'informatique hyperdimensionnelle promet un nouveau monde dans lequel l'informatique est efficace et robuste, et les décisions prises par les machines sont entièrement transparentes.

Entrez dans les espaces de grande dimension

Pour comprendre comment les hypervecteurs rendent le calcul possible, revenons aux images avec des cercles rouges et des carrés bleus. Nous avons d'abord besoin de vecteurs pour représenter les variables SHAPE et COLOR. Ensuite, nous avons également besoin de vecteurs pour les valeurs pouvant être affectées aux variables : CERCLE, CARRÉ, BLEU et ROUGE.

Les vecteurs doivent être distincts. Cette distinction peut être quantifiée par une propriété appelée orthogonalité, ce qui signifie être à angle droit. Dans l'espace 3D, il existe trois vecteurs orthogonaux entre eux : un dans la direction x , un autre dans la direction y et un troisième dans la direction z . Dans un espace à 10 000 dimensions, il existe 10 000 vecteurs mutuellement orthogonaux.

Mais si nous permettons aux vecteurs d'être presque orthogonaux, le nombre de ces vecteurs distincts dans un espace de grande dimension explose. Dans un espace à 10 000 dimensions, il existe des millions de vecteurs presque orthogonaux.

Créons maintenant des vecteurs distincts pour représenter FORME, COULEUR, CERCLE, CARRÉ, BLEU et ROUGE. Parce qu'il y a tellement de vecteurs presque orthogonaux possibles dans un espace de grande dimension, vous pouvez simplement assigner six vecteurs aléatoires pour représenter les six éléments ; ils sont presque garantis d'être presque orthogonaux. "La facilité de créer des vecteurs presque orthogonaux est une raison majeure d'utiliser la représentation hyperdimensionnelle", a écrit Pentti Kanerva , chercheur au Redwood Center for Theoretical Neuroscience de l'Université de Californie à Berkeley, dans un article influent de 2009.

L'article s'appuyait sur des travaux effectués au milieu des années 1990 par Kanerva et Tony Plate, alors étudiant au doctorat avec Geoff Hinton à l'Université de Toronto. Les deux ont développé indépendamment l'algèbre pour manipuler les hypervecteurs et ont fait allusion à son utilité pour le calcul en haute dimension.

Étant donné nos hypervecteurs pour les formes et les couleurs, le système développé par Kanerva et Plate nous montre comment les manipuler à l'aide de certaines opérations mathématiques. Ces actions correspondent à des manières de manipuler symboliquement des concepts.

La première opération est la multiplication. C'est une façon de combiner les idées. Par exemple, multiplier le vecteur FORME par le vecteur CERCLE lie les deux en une représentation de l'idée "LA FORME est CERCLE". Ce nouveau vecteur "lié" est presque orthogonal à la fois à SHAPE et à CIRCLE. Et les composants individuels sont récupérables - une caractéristique importante si vous souhaitez extraire des informations à partir de vecteurs liés. Étant donné un vecteur lié qui représente votre Volkswagen, vous pouvez dissocier et récupérer le vecteur pour sa couleur : VIOLET.

La deuxième opération, l'addition, crée un nouveau vecteur qui représente ce qu'on appelle une superposition de concepts. Par exemple, vous pouvez prendre deux vecteurs liés, "SHAPE is CIRCLE" et "COLOR is RED", et les additionner pour créer un vecteur qui représente une forme circulaire de couleur rouge. Là encore, le vecteur superposé peut être décomposé en ses constituants.

La troisième opération est la permutation ; cela implique de réorganiser les éléments individuels des vecteurs. Par exemple, si vous avez un vecteur tridimensionnel avec des valeurs étiquetées x , y et z , la permutation peut déplacer la valeur de x vers y , y vers z et z vers x. "La permutation vous permet de construire une structure", a déclaré Kanerva. "Ça permet de gérer des séquences, des choses qui se succèdent." Considérons deux événements, représentés par les hypervecteurs A et B. Nous pouvons les superposer en un seul vecteur, mais cela détruirait les informations sur l'ordre des événements. La combinaison de l'addition et de la permutation préserve l'ordre ; les événements peuvent être récupérés dans l'ordre en inversant les opérations.

Ensemble, ces trois opérations se sont avérées suffisantes pour créer une algèbre formelle d'hypervecteurs permettant un raisonnement symbolique. Mais de nombreux chercheurs ont été lents à saisir le potentiel de l'informatique hyperdimensionnelle, y compris Olshausen. "Cela n'a tout simplement pas été pris en compte", a-t-il déclaré.

Exploiter le pouvoir

En 2015, un étudiant d'Olshausen nommé Eric Weiss a démontré un aspect des capacités uniques de l'informatique hyperdimensionnelle. Weiss a compris comment représenter une image complexe comme un seul vecteur hyperdimensionnel contenant des informations sur tous les objets de l'image, y compris leurs propriétés, telles que les couleurs, les positions et les tailles.

"Je suis pratiquement tombé de ma chaise", a déclaré Olshausen. "Tout d'un coup, l'ampoule s'est allumée."

Bientôt, d'autres équipes ont commencé à développer des algorithmes hyperdimensionnels pour reproduire des tâches simples que les réseaux de neurones profonds avaient commencé à effectuer environ deux décennies auparavant, comme la classification d'images.

Considérons un ensemble de données annotées composé d'images de chiffres manuscrits. Un algorithme analyse les caractéristiques de chaque image en utilisant un schéma prédéterminé. Il crée ensuite un hypervecteur pour chaque image. Ensuite, l'algorithme ajoute les hypervecteurs pour toutes les images de zéro pour créer un hypervecteur pour l'idée de zéro. Il fait ensuite la même chose pour tous les chiffres, créant 10 hypervecteurs "de classe", un pour chaque chiffre.

Maintenant, l'algorithme reçoit une image non étiquetée. Il crée un hypervecteur pour cette nouvelle image, puis compare l'hypervecteur aux hypervecteurs de classe stockés. Cette comparaison détermine le chiffre auquel la nouvelle image ressemble le plus.

Pourtant, ce n'est que le début. Les points forts de l'informatique hyperdimensionnelle résident dans la capacité de composer et de décomposer des hypervecteurs pour le raisonnement. La dernière démonstration en date a eu lieu en mars, lorsqu'Abbas Rahimi et ses collègues d'IBM Research à Zurich ont utilisé l'informatique hyperdimensionnelle avec des réseaux de neurones pour résoudre un problème classique de raisonnement visuel abstrait - un défi important pour les RNA typiques, et même certains humains. Connu sous le nom de matrices progressives de Raven, le problème présente des images d'objets géométriques dans, disons, une grille 3 par 3. Une position dans la grille est vide. Le sujet doit choisir, parmi un ensemble d'images candidates, l'image qui correspond le mieux au blanc.

"Nous avons dit:" C'est vraiment ... l'exemple qui tue pour le raisonnement abstrait visuel, allons-y "", a déclaré Rahimi.

Pour résoudre le problème à l'aide de l'informatique hyperdimensionnelle, l'équipe a d'abord créé un dictionnaire d'hypervecteurs pour représenter les objets dans chaque image ; chaque hypervecteur du dictionnaire représente un objet et une combinaison de ses attributs. L'équipe a ensuite formé un réseau de neurones pour examiner une image et générer un hypervecteur bipolaire - un élément peut être +1 ou -1 - aussi proche que possible d'une superposition d'hypervecteurs dans le dictionnaire ; l'hypervecteur généré contient donc des informations sur tous les objets et leurs attributs dans l'image. "Vous guidez le réseau de neurones vers un espace conceptuel significatif", a déclaré Rahimi.

Une fois que le réseau a généré des hypervecteurs pour chacune des images de contexte et pour chaque candidat pour l'emplacement vide, un autre algorithme analyse les hypervecteurs pour créer des distributions de probabilité pour le nombre d'objets dans chaque image, leur taille et d'autres caractéristiques. Ces distributions de probabilité, qui parlent des caractéristiques probables à la fois du contexte et des images candidates, peuvent être transformées en hypervecteurs, permettant l'utilisation de l'algèbre pour prédire l'image candidate la plus susceptible de remplir l'emplacement vacant.

Leur approche était précise à près de 88 % sur un ensemble de problèmes, tandis que les solutions de réseau neuronal uniquement étaient précises à moins de 61 %. L'équipe a également montré que, pour les grilles 3 par 3, leur système était presque 250 fois plus rapide qu'une méthode traditionnelle qui utilise des règles de logique symbolique pour raisonner, car cette méthode doit parcourir un énorme livre de règles pour déterminer la bonne prochaine étape.

Un début prometteur

Non seulement l'informatique hyperdimensionnelle nous donne le pouvoir de résoudre symboliquement des problèmes, mais elle résout également certains problèmes épineux de l'informatique traditionnelle. Les performances des ordinateurs d'aujourd'hui se dégradent rapidement si les erreurs causées, par exemple, par un retournement de bit aléatoire (un 0 devient 1 ou vice versa) ne peuvent pas être corrigées par des mécanismes de correction d'erreurs intégrés. De plus, ces mécanismes de correction d'erreurs peuvent imposer une pénalité sur les performances allant jusqu'à 25 %, a déclaré Xun Jiao , informaticien à l'Université de Villanova.

Le calcul hyperdimensionnel tolère mieux les erreurs, car même si un hypervecteur subit un nombre important de retournements de bits aléatoires, il reste proche du vecteur d'origine. Cela implique que tout raisonnement utilisant ces vecteurs n'est pas significativement impacté face aux erreurs. L'équipe de Jiao a montré que ces systèmes sont au moins 10 fois plus tolérants aux pannes matérielles que les ANN traditionnels, qui sont eux-mêmes des ordres de grandeur plus résistants que les architectures informatiques traditionnelles. "Nous pouvons tirer parti de toute [cette] résilience pour concevoir du matériel efficace", a déclaré Jiao.

Un autre avantage de l'informatique hyperdimensionnelle est la transparence : l'algèbre vous indique clairement pourquoi le système a choisi la réponse qu'il a choisie. Il n'en va pas de même pour les réseaux de neurones traditionnels. Olshausen, Rahimi et d'autres développent des systèmes hybrides dans lesquels les réseaux de neurones cartographient les éléments du monde physique en hypervecteurs, puis l'algèbre hyperdimensionnelle prend le relais. "Des choses comme le raisonnement analogique vous tombent dessus", a déclaré Olshausen. "C'est ce que nous devrions attendre de tout système d'IA. Nous devrions pouvoir le comprendre comme nous comprenons un avion ou un téléviseur.

Tous ces avantages par rapport à l'informatique traditionnelle suggèrent que l'informatique hyperdimensionnelle est bien adaptée à une nouvelle génération de matériel extrêmement robuste et à faible consommation d'énergie. Il est également compatible avec les "systèmes informatiques en mémoire", qui effectuent le calcul sur le même matériel qui stocke les données (contrairement aux ordinateurs von Neumann existants qui transfèrent inefficacement les données entre la mémoire et l'unité centrale de traitement). Certains de ces nouveaux appareils peuvent être analogiques, fonctionnant à très basse tension, ce qui les rend économes en énergie mais également sujets aux bruits aléatoires. Pour l'informatique de von Neumann, ce caractère aléatoire est "le mur que vous ne pouvez pas franchir", a déclaré Olshausen. Mais avec l'informatique hyperdimensionnelle, "vous pouvez simplement percer".

Malgré ces avantages, l'informatique hyperdimensionnelle en est encore à ses balbutiements. "Il y a un vrai potentiel ici", a déclaré Fermüller. Mais elle souligne qu'il doit encore être testé contre des problèmes du monde réel et à des échelles plus grandes, plus proches de la taille des réseaux de neurones modernes.

"Pour les problèmes à grande échelle, cela nécessite un matériel très efficace", a déclaré Rahimi. "Par exemple, comment [faites-vous] une recherche efficace sur plus d'un milliard d'articles ?"

Tout cela devrait venir avec le temps, a déclaré Kanerva. "Il y a d'autres secrets [que] les espaces de grande dimension détiennent", a-t-il déclaré. "Je vois cela comme le tout début du temps pour le calcul avec des vecteurs."

Auteur: Ananthaswamy Anil

Info: https://www.quantamagazine.org/ Mais 2023

[ machine learning ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste