Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 32
Temps de recherche: 0.0542s

univers sons

Le son est-il le système nerveux du cosmos ?
Il existe un moyen de rendre les sons visibles. On appelle "cymatique" cette science énigmatique, qui puise ses racines dans l'histoire de l'univers. Quelle est la nature de l'onde sonore? Que sait-on vraiment de son pouvoir sur nous?
Allemagne, 18ème siècle. Ernst Chladni est un mathématicien doué et discret. L'homme est aussi musicien et sa passion pour le violon va le conduire à une découverte extraordinaire. Saupoudrant de sable un disque de cuivre, il en frotta le bord avec son archet. La plaque se mit à vibrer et le sable à se déplacer, dessinant d'authentiques formes géométriques. "Qu'on juge de mon étonnement voyant ce que personne n'avait encore vu", dira plus tard son ami et philosophe Lichtenberg, auteur de travaux sur l'électricité statique.
Dans les années soixante, le physicien Hans Jenny sera le premier à révéler ce phénomène oublié. Grâce à l'évolution de l'électronique, il prolonge les recherches et fait varier les supports. Il invente le tonoscope, petit appareil tubulaire assorti d'une membrane sur laquelle on aura versé de la poudre, qui permet de créer des formes étonnantes avec le son de sa voix. Plus d'un siècle après les premières expériences, Jenny livre des observations d'une grande précision sur la nature du son, et invente une nouvelle science : la cymatique. Du grec 'vague', la cymatique étudie l'interaction du son et de la matière. Les outils de mesure acoustique modernes ont permis d'étudier ces modulations spontanées : dans l'eau par exemple, un son grave produit un cercle entouré d'anneaux ; un son aïgu accroît le nombre d'anneaux concentriques. Soumise au rythme des oscillations, la variété de formes générées semble sans limite. Hans Jenny parlera de "modèle dynamique mais ordonné" Quel pouvoir autonome renferme l'onde sonore ?
Toute activité produit du bruit. Du plus retentissant au plus subtil, il est trace du mouvement. Christian Hugonnet, ingénieur acousticien et fondateur de la Semaine du Son, décrit un enchaînement simple : "l'action entraîne la vibration de l'air qui va déplacer des molécules, se choquant les unes aux autres comme pour se transmettre un message". Avant d'être une manifestation audible, le son se caractérise par un changement moléculaire, sur une surface donnée et en un temps donné. Dans cette équation, nul besoin d'oreille pour considérer qu'il y a dynamique sonore. C'est la fréquence de l'onde qui va diriger toute l'énergie. "Dans l'expérience avec le sable, les grains s'agglutinent là où la fréquence est haute", détaille le spécialiste. La propriété d'un corps à entrer en résonance avec le flux d'énergie va créer la forme. La matière prend la forme de l'énergie qui lui est adressée.
Le son primordial
Spirales, polygones, stries... ces marques sont souvent analogues à celles déjà présentes dans la nature. "J'ai constaté qu'une plaque elliptique soumise à des vibrations sonores reproduit les figures qu'on trouve sur la carapace d'une tortue", constate le photographe Alexander Lauterwasser. Une morphogenèse fondée sur la transmission de codes génétiques nécessaires à la formation des masses et à leur différenciation, et qui révèle un processus harmonieux dans l'ADN terrestre. Dès lors, est-il possible que les formes animales et végétales qui nous entourent – et la matière vivante dans son ensemble – soient elles-mêmes le résultat de vibrations, comme le rapportent de nombreuses traditions ?
Bien avant ces découvertes scientifiques, les cultures traditionnelles du monde entier ont développé leur récit mythologique de la création de l'univers. La voix et le souffle y sont féconds. "Au commencement était le verbe, dit l'Evangile. Les textes celtes sacrés évoquent Trois Cris qui firent éclater l'Oeuf du Monde", rapporte le Docteur Alain Boudet, enseignant et conférencier. "Chez les hindous et les bouddhistes, le principe structurant du chaos d'origine est le mantra Om et les Mayas parlent du chant des Dieux comme du système nerveux de l'univers". Une cosmogonie universelle, portée par des figures archétypales semblables aux formations cymatiques, telles que les mandalas. Ces mystérieuses corrélations entre figures naturelles et symboliques renverraient à une intuition de la forme, perdue avec le temps : "Cette géométrie originelle est en nous. Nous l'avons oubliée à mesure que le mental s'est imposé", raconte Alain Boudet. Dans son ouvrage Cymatics, le pionnier Hans Jenny conclut à la puissance fondamentale et génératrice de la vibration. Sa périodicité soutient la bipolarité de la vie : le mouvement et la forme. La vibration comme source de toute chose : un constat, mais aussi une opportunité de reconsidérer le monde dans lequel nous évoluons.
Echos d'avenir
Pythagore disait : "L'homme possède toutes les valeurs du cosmos". L'auteur du célèbre théorème de géométrie a développé le principe de microcosme, reliant l'organisme humain à l'organisation de l'univers. L'influence du son invite désormais à une nouvelle écoute du vivant. "La biorésonance nous renseigne sur la fréquence optimale de nos organes", explique Andreas Freund, physicien quantique. Au Tibet, les bols chantants sont reconnus pour leurs vertus. Leurs tonalités spécifiques communiquent avec la matière cristalline de notre corps : les os, les tissus et l'eau qui nous compose à 70%. Plus le son est grave, plus l'on travaillera la zone racine du corps. Comme la cymatique, notre résonance cellulaire trace un chemin pour la vibration, réharmonisant notre énergie interne. Un processus identique aux diapasons thérapeutiques employés depuis des siècles en Europe, dont les fréquences en hertz sont réglées pour des actions cibles. Mais pour masser nos entrailles, quel meilleur instrument que la voix ? Le chant harmonique des traditions chamaniques, aussi appelé chant diphonique dans nos conservatoires de musique, est une technique vocale sur deux notes simultanées, par un positionnement de la langue et des lèvres. Curiosité ou évidence biologique, ce son très apaisant ressemble à celui des vents solaires.
La vague de l'action contient à la fois l'intention et son empreinte. "Le son in-forme. Il est porteur d'information", nous dit Andreas Freund. Une attention portée aux messages de la nature, qui permet aujourd'hui de décrypter jusqu'au langage par ultrasons des dauphins ou la sensibilité des plantes. La dimension vibratoire du son sert de modèle dans une recherche de cohérence et d'alignement. Ses explorations scientifiques, artistiques et spirituelles offrent les clés d'une autre conscience de l'homme et de son environnement, vers une nouvelle signature écologique.

Auteur: De La Reberdiere Lucile

Info: https://www.inrees.com/articles/cymatique-son-systeme-nerveux-cosmos/

[ ondes ] [ proportions ] [ archétypes ]

 
Commentaires: 2
Ajouté à la BD par miguel

taylorisme

Quoique Taylor ait baptisé son système "Organisation scientifique du travail", ce n’était pas un savant. Sa culture correspondait peut-être au baccalauréat, et encore ce n’est pas sûr. Il n’avait jamais fait d’études d’ingénieur. Ce n’était pas non plus un ouvrier à proprement parler, quoiqu’il ait travaillé en usine. Comment donc le définir ? C’était un contremaître, mais non pas de l’espèce de ceux qui sont venus de la classe ouvrière et qui en ont gardé le souvenir. C’était un contremaître du genre de ceux dont on trouve des types actuellement dans les syndicats professionnels de maîtrise et qui se croient nés pour servir de chiens de garde au patronat. Ce n’est ni par curiosité d’esprit, ni par besoin de logique qu’il a entrepris ses recherches. C’est son expérience de contremaître chien de garde qui l’a orienté dans toutes ses études et qui lui a servi d’inspiratrice pendant trente-cinq années de recherches patientes. C’est ainsi qu’il a donné à l’industrie, outre son idée fondamentale d’une nouvelle organisation des usines, une étude admirable sur le travail des tours à dégrossir.

Taylor était né dans une famille relativement riche et aurait pu vivre sans travailler, n’étaient les principes puritains de sa famille et de lui-même, qui ne lui permettaient pas de rester oisif. Il fit ses études dans un lycée, mais une maladie des yeux les lui fit interrompre à 18 ans. Une singulière fantaisie le poussa alors à entrer dans une usine où il fit un apprentissage d’ouvrier mécanicien. Mais le contact quotidien avec la classe ouvrière ne lui donna à aucun degré l’esprit ouvrier. Au contraire, il semble qu’il y ait pris conscience d’une manière plus aiguë de l’opposition de classe qui existait entre ses compagnons de travail et lui-même, jeune bourgeois, qui ne travaillait pas pour vivre, qui ne vivait pas de son salaire, et qui, connu de la direction, était traité en conséquence.

Après son apprentissage, à l’âge de 22 ans, il s’embaucha comme tourneur dans une petite usine de mécanique, et dès le premier jour il entra tout de suite en conflit avec ses camarades d’atelier qui lui firent comprendre qu’on lui casserait la figure s’il ne se conformait pas à la cadence générale du travail ; car à cette époque régnait le système du travail aux pièces organisé de telle manière que, dès que la cadence augmentait, on diminuait les tarifs. Les ouvriers avaient compris qu’il ne fallait pas augmenter la cadence pour que les tarifs ne diminuent pas ; de sorte que chaque fois qu’il entrait un nouvel ouvrier, on le prévenait d’avoir à ralentir sa cadence sous peine d’avoir la vie intenable.

Au bout de deux mois, Taylor est arrivé à devenir contremaître. En racontant cette histoire, il explique que le patron avait confiance en lui parce qu’il appartenait à une famille bourgeoise. Il ne dit pas comment le patron l’avait distingué si rapidement, puisque ses camarades l’empêchaient de travailler plus vite qu’eux, et on peut se demander s’il n’avait pas gagné sa confiance en lui racontant ce qui s’était dit entre ouvriers.

Quand il est devenu contremaître, les ouvriers lui ont dit : "On est bien content de t’avoir comme contremaître, puisque tu nous connais et que tu sais que si tu essaies de diminuer les tarifs on te rendra la vie impossible." À quoi Taylor répondit en substance : "Je suis maintenant de l’autre côté de la barricade, je ferai ce que je dois faire." Et en fait, ce jeune contremaître fit preuve d’une aptitude exceptionnelle pour faire augmenter la cadence et renvoyer les plus indociles.

Cette aptitude particulière le fit monter encore en grade jusqu’à devenir directeur de l’usine. Il avait alors vingt-quatre ans.

Une fois directeur, il a continué à être obsédé par cette unique préoccupation de pousser toujours davantage la cadence des ouvriers. Évidemment, ceux-ci se défendaient, et il en résultait que ses conflits avec les ouvriers allaient en s’aggravant. Il ne pouvait exploiter les ouvriers à sa guise parce qu’ils connaissaient mieux que lui les meilleures méthodes de travail. Il s’aperçut alors qu’il était gêné par deux obstacles : d’un côté il ignorait quel temps était indispensable pour réaliser chaque opération d’usinage et quels procédés étaient susceptibles de donner les meilleurs temps ; d’un autre côté, l’organisation de l’usine ne lui donnait pas le moyen de combattre efficacement la résistance passive des ouvriers. Il demanda alors à l’administrateur de l’entreprise l’autorisation d’installer un petit laboratoire pour faire des expériences sur les méthodes d’usinage. Ce fut l’origine d’un travail qui dura vingt-six ans et amena Taylor à la découverte des aciers rapides, de l’arrosage de l’outil, de nouvelles formes d’outil à dégrossir, et surtout il a découvert, aidé d’une équipe d’ingénieurs, des formules mathématiques donnant les rapports les plus économiques entre la profondeur de la passe, l’avance et la vitesse des tours ; et pour l’application de ces formules dans les ateliers, il a établi des règles à calcul permettant de trouver ces rapports dans tous les cas particuliers qui pouvaient se présenter.

Ces découvertes étaient les plus importantes à ses yeux parce qu’elles avaient un retentissement immédiat sur l’organisation des usines. Elles étaient toutes inspirées par son désir d’augmenter la cadence des ouvriers et par sa mauvaise humeur devant leur résistance. Son grand souci était d’éviter toute perte de temps dans le travail. Cela montre tout de suite quel était l’esprit du système. Et pendant vingt-six ans il a travaillé avec cette unique préoccupation. Il a conçu et organisé progressivement le bureau des méthodes avec les fiches de fabrication, le bureau des temps pour l’établissement du temps qu’il fallait pour chaque opération, la division du travail entre les chefs techniques et un système particulier de travail aux pièces avec prime.

[...]

La méthode de Taylor consiste essentiellement en ceci : d’abord, on étudie scientifiquement les meilleurs procédés à employer pour n’importe quel travail, même le travail de manœuvres (je ne parle pas de manœuvres spécialisés, mais de manœuvres proprement dits), même la manutention ou les travaux de ce genre ; ensuite, on étudie les temps par la décomposition de chaque travail en mouvements élémentaires qui se reproduisent dans des travaux très différents, d’après des combinaisons diverses ; et une fois mesuré le temps nécessaire à chaque mouvement élémentaire, on obtient facilement le temps nécessaire à des opérations très variées. Vous savez que la méthode de mesure des temps, c’est le chronométrage. Il est inutile d’insister là-dessus. Enfin, intervient la division du travail entre les chefs techniques. Avant Taylor, un contremaître faisait tout ; il s’occupait de tout. Actuellement, dans les usines, il y a plusieurs chefs pour un même atelier : il y a le contrôleur, il y a le contremaître, etc.

Auteur: Weil Simone

Info: "La condition ouvrière", Journal d'usine, éditions Gallimard, 2002, pages 310 à 314

[ biographie ] [ résumé ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

déconnexion

La mort telle qu'elle n'avait jamais été vue
L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel? Cela, l'étude ne le dit pas.
Une expérience réalisée dans une université berlinoise a permis de visualiser ce qui se passait dans le cerveau d'un mourant au moment fatidique. Et les résultats, inédits, sont étonnants. Cérébralement parlant, la mort est moins une extinction qu'un ultime embrasement électrique.
C'est la grande, la fatidique question : que se passe-t-il dans notre cerveau - et donc dans notre esprit, dans notre conscience - à la minute de notre mort ? La réponse, jusqu'ici, paraissait hors d'atteinte de l'investigation scientifique : personne n'est jamais revenu de l'autre rive pour témoigner de ce qu'il avait vu et ressenti au moment de passer de vie à trépas.

Certes, il y a bien ces récits troublants recueillis sur les lèvres de celles et ceux qui ont frôlé la mort de près. Regroupés sous l'appellation d'"expériences de mort imminente" (EMI), ils sont pris très au sérieux par une partie de la communauté des neuroscientifiques qui les répertorie et les décortique, comme le fait l'équipe du Coma Science Group à l'université de Liège (lire ci-dessous).

Mais, par définition, les survivants dont l'expérience a été reconnue comme authentique EMI après évaluation sur l'échelle de Greyson (du nom du psychiatre américain Bruce Greyson, qui l'a proposée en 1983) ont échappé à la mort. Ils n'en ont vu que l'ombre. La mort elle-même et ce qu'elle provoque dans le cerveau du mourant demeurent entièrement nimbés de mystère. Du moins était-ce le cas jusqu'à cette année...

Dans une étude publiée par la revue "Annals of Neurology" qui a fait sensation - et qui fera sans doute date dans l'histoire encore toute récente de la thanatologie -, le professeur en neurologie expérimentale à l'université Charité de Berlin, Jens Dreier, détaille l'expérience extraordinaire à laquelle son équipe et lui se sont livrés sur neuf patients. Ces neuf personnes, toutes entrées en soins intensifs à la suite de blessures cérébrales, faisaient l'objet d'un monitorage neurologique lourd, plus invasif qu'un simple électroencéphalogramme.

"Il s'agit d'une technique non conventionnelle, qui permet d'enregistrer l'activité électrique du cerveau, y compris à de très basses fréquences, de l'ordre de 0,01 hertz", explique Stéphane Marinesco, responsable du Centre de recherche en neurosciences de Lyon. Les basses fréquences émises par le cerveau ont du mal à traverser le scalp, ce qui les rend indétectables aux appareils d'électroencéphalogramme dont les électrodes sont placées sur le cuir chevelu. Dans le système de monitorage dont étaient équipés les patients du service du Pr Dreier, les électrodes étaient placées à l'intérieur du crâne, et même sous la dure-mère, cette membrane rigide qui entoure le cerveau et la moelle épinière.

Le cerveau, un vaste mystère qui reste à élucider
Cet accès aux très basses fréquences, correspondant à une activité électrique lente, a été la fenêtre qui a permis à Jens Dreier et son équipe de visualiser ce qui se passait dans le cerveau de personnes en train de mourir. Pour leur expérience, les neuroscientifiques allemands ont simplement demandé aux familles, une fois devenu évident que le patient ne survivrait pas à son accident, l'autorisation de poursuivre l'enregistrement jusqu'au bout. Et même un peu au-delà du "bout", c'est-à-dire de la mort cérébrale, ce moment à partir duquel un classique électroencéphalogramme n'enregistre plus aucune activité cérébrale et que l'Organisation mondiale de la santé considère comme le critère médico-légal du décès.

Vague de dépolarisation
Qu'ont montré les enregistrements réalisés à la Charité de Berlin ? Quelque chose de tout à fait fascinant, jusque-là inédit, et qui devrait peut-être amener les spécialistes à reconsidérer leur définition du décès et de son moment exact. Ce phénomène cérébral, indique l'étude, survient entre 2 et 5 minutes après l'ischémie, moment où les organes (dont le cerveau) ne sont plus alimentés en sang et donc en oxygène. Et il dure lui-même une petite dizaine de minutes. On peut l'assimiler à une sorte d'incendie électrique qui s'allume à un bout du cerveau et, de là, se propage à la vitesse de 50 microns par seconde dans tout l'encéphale avant de s'éteindre à l'autre bout, son oeuvre de destruction accomplie. Les neuroscientifiques parlent de "vague de dépolarisation".

Pour maintenir le "potentiel de membrane" qui lui permet de communiquer avec ses voisins sous forme d'influx nerveux, un neurone a besoin d'énergie. Et donc d'être irrigué en permanence par le sang venu des artères qui lui apporte l'oxygène indispensable à la production de cette énergie sous forme d'adénosine triphosphate (ATP). Tout le travail de Jens Dreier a consisté à observer ce qui se passait pour les neurones une fois que, le coeur ayant cessé de battre et la pression artérielle étant tombée à zéro, ils n'étaient plus alimentés en oxygène.

"L'étude a montré que les neurones se mettaient alors en mode 'économie d'énergie'", commente Stéphane Marinesco. Pendant les 2 à 5 minutes séparant l'ischémie de l'apparition de la vague de dépolarisation, ils puisent dans leurs réserves d'ATP pour maintenir leur potentiel de membrane. Pendant cette phase intermédiaire, au cours de laquelle le cerveau est littéralement entre la vie et la mort, celui-ci ne subit encore aucune lésion irréversible : si l'apport en oxygène venait à être rétabli, il pourrait se remettre à fonctionner sans dommages majeurs.

Réaction en chaîne
Mais cette résistance héroïque des cellules nerveuses a ses limites. A un moment donné, en l'un ou l'autre endroit du cerveau, un premier neurone "craque", c'est-à-dire qu'il dépolarise. Les stocks de potassium qui lui permettaient de maintenir son potentiel de membrane étant devenus inutiles, il les largue dans le milieu extra-cellulaire. Il agit de même avec ses stocks de glutamate, le principal neurotransmetteur excitateur du cerveau.

Mais, ce faisant, ce premier neurone initie une redoutable réaction en chaîne : le potassium et le glutamate par lui libérés atteignent un neurone voisin dont ils provoquent aussitôt la dépolarisation ; à son tour, ce deuxième neurone relâche ses stocks et provoque la dépolarisation d'un troisième, etc. Ainsi apparaît et se propage la vague de dépolarisation, correspondant à l'activité électrique lente enregistrée par le système de monitorage spécifique utilisé à la Charité de Berlin. Le "bouquet final" du cerveau sur le point de s'éteindre définitivement.

Il est d'autres circonstances de la vie où l'on observe des vagues de dépolarisation, un peu différentes en ceci qu'elles ne sont pas, comme ici, irréversibles. C'est notamment le cas dans les migraines avec aura, naguère appelées migraines ophtalmiques, car elles s'accompagnent de symptômes visuels qui peuvent être de simples distorsions du champ visuel, mais aussi, parfois, l'apparition de taches lumineuses, voire de véritables hallucinations assez similaires à celles rapportées dans les EMI.

L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel ? Cela, l'étude ne le dit pas. Mais l'hypothèse ne paraît pas indéfendable. ,

Auteur: Verdo Yann

Info: Les échos.fr, 25/11 à 17:23

[ cessation ] [ disparition ]

 

Commentaires: 0

Ajouté à la BD par miguel

lacanisme

1. Dans Le Moi dans la théorie de Freud et la technique de la psychanalyse, Lacan nous dit : "Vous voyez les possibilités de démonstration et de théorèmatisation qui se dégagent du simple usage de ces séries symboliques. Dès l’origine, et indépendamment de tout attachement à un lien quelconque de causalité supposée réelle, déjà le symbole joue, et engendre par lui-même ses nécessités, ses structures, ses organisations. C’est bien de cela qu’il s’agit dans notre discipline, pour autant qu’elle consiste à sonder dans son fond quelle est, dans le monde du sujet humain, la portée de l’ordre symbolique".

Il semble bien qu’il ait fait ici une démonstration à visée théorèmatique… comme il dit. L’ordre symbolique, communément représenté par la structure du discours, s’impose à nous : il n’y a pas de je parle dans mon discours, il n’y a que du ça parle ! C’est la Loi symbolique du signifiant qui parle lorsque l’Homme se met à discourir. L’inconscient est structuré comme un langage, nous disait Lacan, et il est pris, comme prisonnier, dans l’autonomie syntaxique du réseau des signifiants.

2. La théorèmatique de Lacan nous renseigne sur la praxis analytique : "Cette position de l’autonomie du symbolique est la seule qui permette de dégager de ses équivoques la théorie et la pratique de l’association libre en psychanalyse". 

En effet, dans l’association libre, les signifiants s’enchaînent les uns après les autres, selon un hasard qui n’a rien à voir avec l’aléatoire, mais qui transpire la détermination symbolique liée à un réel qui se rate et qui ne peut se dire autrement que par l’insistance de son absence, jusqu’au signifiant premier lui-même. La répétition est le leurre symbolique car ce qui brille par son absence reste introuvable dans la série du hasard et se rate à chaque coup de dés.

De plus, Lacan nous indique que "seuls les exemples de conservation, indéfinie dans leur suspension, des exigences de la chaîne symbolique […] permettent de concevoir où se situe le désir inconscient dans sa persistance indestructible".

Le désir inconscient serait donc perceptible par l’insistance de certains signifiants dans la chaîne symbolique du discours libre, dont la persistance ne serait que le témoin de la dérobade perpétuelle d’un signifiant-clé, ou réel, qui échappe systématiquement au discours parce que soumis à la loi syntaxique du refoulement inconscient.

La rencontre avec le réel, tuchê, dans le réseau des signifiants, automaton, est une rencontre manquée, ratée, toujours ajournée, reportée à plus tard, au hasard d’une rencontre future, qui se ratera inexorablement.

"Ce qui est caché n’est jamais que ce qui manque à sa place" et c’est bien là le point crucial qui doit nous faire porter notre attention sur la certitude de ne pas voir ou de ne pas trouver ce qui est pourtant là, sous nos yeux et qui nous est invisible, à l’instar de la lettre volée. La place du signifiant dans le symbolique décide des coupures et des changements de syntaxe qui sont l’essence de la détermination symbolique. On ne peut forcer le hasard… ni contraindre le réel à se montrer, sauf peut-être si l’on admet que le réel se présente comme une trouvaille prête à se dérober à nouveau, introduisant ainsi la dimension de la perte. Le réel n’est finalement qu’un trou, perceptible uniquement par ses bords. Et ce qui est caché n’est que ce qui manque à sa place dans le symbolique, car dans le réel, il y est toujours, à sa place. Ce réel, lié au désir inconscient, persiste et signe tout au long de nos discours, alors même qu’il s’en trouve exclu.

3. La causalité de cette exclusion inéluctable s’amorce dans la parole. Stéphane Mallarmé écrivait en 1897 le poème qui commence par "Un coup de dés jamais n’abolira le hasard" et qui finit par "Toute pensée émet un coup de dés". À chaque fois que la parole se fait entendre, la répétition symbolique est à l’œuvre et modifie par rétroaction les places des signifiants antérieurs, comme des métamorphoses des réminiscences imaginaires ou symboliques. Ces métamorphoses rendent alors encore plus opaque la loi syntaxique et dissimulent sous des aspects objectivables et abordables par le conscient, la vérité de l’ineffable réel.

Or, les lois de la détermination symbolique sont antérieures à toute parole, en ce sens qu’un chiffre n’est jamais choisi au hasard : même s’il existe d’étranges coïncidences que l’on pourrait croire liées au destin ou même s’il existe des lois mathématiques réelles permettant de prédire la probabilité d’apparition d’une rencontre parmi toutes, seule la coupure engendre la loi et ce n’est qu’à l’exhiber dans le symbolique que cette coupure peut faire émerger le nouage d’avec le réel.

Dans l’association libre, que l’on aimerait imager comme une suite de signifiants choisis au hasard, la loi syntaxique inconsciente est considérée par l’analysant comme une vérité subjective, voire même éclairante. Or, la coupure qu’insuffle l’analyste au moment même où cette certitude s’ancre dans le symbolique, va chambouler la loi qui s’était inscrite et remettre les compteurs à zéro : à partir d’un signifiant dernier, une nouvelle association libre commence alors, accompagnée de la loi syntaxique inconsciente, qui, elle, se répète encore peut-être à l’identique. Quoi qu’il en soit, les coupures insufflées par l’analyste bouleversent et métamorphosent le réseau, en tant que système, des signifiants et accompagnent l’analysant dans sa quête asymptotique d’un réel indicible, dont seule la tuchê, en tant que rencontre manquée, reflète le stigmate.

La coupure a donc le pouvoir de réveiller la tuchê, en désarçonnant la loi de l’automaton.

Et c’est bien ce que l’analyste Jacques Lacan vient de faire devant nous en différé : une coupure. Son regard singulier sur la structure de l’Inconscient, régi par la loi des signifiants, insuffle cette coupure qui nous permet, à nous ici, d’éviter le malentendu en prenant conscience de la suprématie de la loi des signifiants dans nos discours, suprématie qui nous constitue en tant que "parlêtre".

Enfin, écoutons Lacan dans Les quatre concepts… : "Le côté formé de la relation entre l’accident qui se répète et ce sens qui est la véritable réalité et qui nous conduit vers le Trieb, la pulsion, voilà ce qui nous donne la certitude, qu’il y a autre chose pour nous, dans l’analyse, à nous donner comme visée de démystifier l’artefact du traitement que l’on appelle le transfert, pour le ramener à ce qu’on appelle la réalité prétendument toute simple de la situation."

Ceci pour clore sur ce que Lacan répètera souvent : le transfert, entre analyste et analysant, n’est pas la répétition d’une affection (amour ou haine) inscrite dans le passé affectif de l’analysant, bien que le transfert puisse être le lieu d’une répétition symbolique. L’analyste est le sujet supposé doté d’un certain savoir, sans doute celui de distinguer l’automaton de la tuchê, c’est-à-dire de reconnaître, dans la profusion automatique du réseau des signifiants du discours de l’analysant, ce qui peut être coupé ou saisi au vol et qui tient de la rencontre avec le réel.

En d’autres termes, ce qui est à découvrir n’est pas ce qui se répète, mais bien au contraire ce qui se dérobe systématiquement et le transfert psychanalytique est sans doute une voie (une voix ?) souscrivant à cette rencontre impossible.

Auteur: Sofiyana Agnes

Info: Tuchê et Automaton. Introduction à l'Introduction au séminaire sur La Lettre volée. In, La clinique lacanienne 2004/2 (no 8), pages 199 à 220. Epilogue

 
Commentaires: 1
Ajouté à la BD par miguel

fausse viande

La Décroissance : Pour vous, l'abolition de l'élevage fait le jeu du capital : il y a une collusion d'intérêts entre ceux qui la prônent et la science, l'industrie, les start-up des biotechnologies, les investisseurs qui se saisissent du marché en plein essor des substituts alimentaires...

Jocelyne Porcher: [...] Ce qui se développe aujourd'hui, le véganisme, la revendication d'en finir avec l'élevage, cela sert des intérêts économiques. L'agriculture cellulaire qui arrive, en collusion avec les défenseurs des animaux au nom d'une agriculture sans élevage, s'inscrit dans la continuité du processus d'industrialisation de la production alimentaire. On passe de la production de matière animale à partir d'animaux à la production de matière animale sans les animaux, avec les mêmes acteurs : c'est-à-dire la science, l'industrie, la banque. [...] Avec l'agriculture cellulaire, on change le niveau d'extraction : au lieu d'extraire la matière animale à partir de la vache, du cochon, etc., l'extraction se fait à un niveau plus resserré, au niveau de la cellule. On est bien dans la même logique de pensée, complètement inscrite dans le système capitaliste. Ce qui explique à la fois le soutien financier accordé aux associations véganes, type L214, qui reçoit directement de l'argent d'une fondation américaine et qui a une surface médiatique sans commune mesure avec ce qu'elle fait réellement, c'est-à-dire de la communication au service d'une agriculture sans élevage. [...]

LD : En quoi consiste la viande "propre" que les start-up veulent produire ?

JP : Mark Prost, un des premiers biologistes a avoir travaillé là-dessus, celui qui a présenté le premier hamburger in vitro en 2013, disait : "La viande in vitro est 100% naturelle, la seule différence c'est qu'elle est produire en dehors de la vache..." C'est ça l'idée: ils considèrent que la vache, ce n'est que de la ressource de matière animale. [...] L'idée de certaines start-up, c'est de faire l'équivalent du produit industriel en se passant d'animaux : selon eux, la multiplication de cellules de poulet va donner la même chose que le poulet qu'on achète actuellement dans les supermarchés, au moins visuellement...

LD: On a l'impression qu'ils n'en sont qu'au stade expérimental. Ce marché est-il appelé à grandir ?

JP: [...] Il y a des milliards investis là-dedans, des dizaines de start-up qui se développent, le potentiel du marché est énorme, non seulement en ce qui concerne la viande in vitro, mais aussi l'ensemble des substituts: le faux lait, les faux oeufs, le faux cuir... le faux tout. D'un point de vue technique, ce qu'on réussit à faire dans un incubateur, on peut réussir à le faire dans cent incubateurs. [...] Après il y a le volet sanitaire : ce sera peut-être un peu plus compliqué de garantir l'innocuité de ces produits. Mais aux Etats-Unis, cette viande in vitro est déjà autorisée à la vente, comme si c'était un produit ordinaire. La deuxième limite, c'est le consentement des gens à manger ces produits. C'est pourquoi, en plus de l'aspect production, les start-up des biotechnologies font un travail de fond pour préparer les consommateurs, construire la demande. De ce point de vue, des associations comme Peta aux Etats-Unis, L214 en France et Gaïa en Belgique, préparent vraiment le terrain pour que le marché des substituts se développe.

LD: Pour vendre ces substituts, l'industrie des biotechnologies affirme qu'elle oeuvre pour un monde meilleur. Vous, au contraire, vous montrez qu'elle signe le triomphe de la société industrielle et technicienne.

JP : Non seulement c'est l'industrialisation complète du vivant, mais c'est aussi la réduction de la vie au vivant. [...] On produit un amas de cellules qui se multiplient, c'est du vivant biologique, mais il n'y a pas de vie. C'est effectivement le triomphe de la technique, en tant qu'elle est complètement mortifère. Je le dis en citant Michel Henry, qui l'explique dans son livre La Barbarie : le triomphe de la technique sur la vie, c'est une destruction de la vie même, des affects, de la culture, du lien, de tout ce qui fait que la vie, c'est autre chose que du vivant.

LD: Le mouvement de la "libération animale" a l'air plus implanté dans les métropoles que dans les campagnes. Est-ce que vous pensez que ce type de préoccupation relève d'une civilisation très urbanisée comme l'est la nôtre, hors-sol, où on n'a plus de contact avec la terre, l'élevage et la production alimentaire en général ?

JP : Quand on est dans un milieu rural où il y a encore des vaches dans les champs, où les gens peuvent encore croiser des agriculteurs, des éleveurs, avoir un rapport à la vie et à la mort, les revendications d'en finir avec l'élevage passent beaucoup moins facilement que dans un milieu urbain, où les gens sont complètement déconnectés de la production, de ce que c'est qu'un champ, une prairie, de ce qui fait la relation de travail entre les humains et les animaux, et plus largement entre les agriculteurs et la nature. [...] Toute la propagande abolitionniste leur dit qu'élevage et production animale, c'est pareil. Ils sont dans la compassion, l'émotion. Des visions d'animaux maltraités leur arrivent sur leurs smartphones, et ils ont des réactions binaires : "la viande c'est mal, c'est affreux, je n'en mange plus." [...]

LD: Marx ironisait au XIXe sur les bourgeois qui se préoccupaient de protection animale mais qui ne se souciaient pas de la dégradation des conditions de vie dans les cités industrielles. Dans votre livre, vous notez aussi qu'une certaine protection animale, contemporaine de l'industrialisation et de l'urbanisation, parle de "bien-être animal" en dépolitisant la question.

JP : C'est aussi ce qu'a souligné l'historien Maurice Agulhon à la suite de Marx : le fait qu'au XIXe siècle, la protection animale vise d'abord à pacifier les classes populaires, avec l'hypothèse que la violence commise envers les animaux est de leur fait, et qu'au-delà couve le risque d'une violence contre l'ordre social, contre la bourgeoisie. Toute cette bourgeoisie, qui tient les transformations sociales, veut pacifier les mœurs après les révolutions de 1830 et 1848. Et l'un de ses moyens, c'est de pacifier les rapports envers les animaux, avec l'idée qu'il y a une violence atavique des classes populaires contre les animaux, que les gens ordinaires sont des brutes épaisses qu'il faudrait maîtriser, former, éduquer, civiliser. La loi Grammont, votée en 1850, [...] condamne le cocher qui malmène son cheval, mais pas le bourgeois propriétaire de la mine où descendent des chevaux et des enfants. On condamne la violence des personnes, des paysans, des ouvriers, mais on ne remet pas en cause les énormes bouleversements qu'engendre l'industrialisation [...] : la violence inouïe contre les enfants, les femmes et les hommes, mais aussi contre les animaux qui sont tous prolétarisés. Aujourd'hui, les défenseurs du "bien-être animal" sont toujours dans cette vision individuelle et dépolitisée : il suffit de voir une association comme PETA appeler à éduquer les gens, les rendre moraux, en leur donnant de la viande in vitro s'ils tiennent absolument à en manger, alors qu'elle occulte complètement les rapports sociaux et l'organisation du travail pensée par la bourgeoisie. Pourtant, la question, c'est bien la place des animaux dans les rapports sociaux, la violence faite aussi bien aux humains qu'aux animaux. Dans les porcheries industrielles par exemple, les gens subissent les mêmes conditions de vie au travail que les bêtes : on est enfermé du matin au soir, dans la poussière, le bruit, les odeurs infectes, c'est le même univers concentrationnaire pour les uns et pour les autres.

Auteur: Porcher Jocelyne

Info: Dans "La décroissance" N°165, décembre 2019, pages 26-27

[ enjeux économiques ] [ lobbies ] [ nourriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel