Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 18
Temps de recherche: 0.0341s

embarras

La scène de ses adieux avec Antoinette, la veille au soir, lui revint à l'esprit. Elle était debout sur le quai de la gare, lui venait de ranger à grand-peine ses valises dans le filet et s'était accoudé à la fenêtre du compartiment. Tant que le train était resté à l'arrêt, ils avaient réussi à se conduire avec naturel, mais au moment où il s'était ébranlé une gêne insurmontable les avait saisis tous les deux. Ne pas se quitter des yeux dans ces conditions avaient été une véritable épreuve. Après tant de mois passés ensemble, voilà qu'ils n'avaient pas pu se regarder en face. Ils étaient restés immobiles, silencieux, sentant bien que toute parole eut sonné faux. Le malaise s'était dissipé dès qu'une distance plus importante les avait séparés. Ils s'étaient alors adressé de grands gestes en se criant au revoir. Comme cela lui arrivait souvent, Cyril s'était complu à revivre ce départ, l'imaginant ainsi : le train revenait sur le quai, il retrouvait Antoinette et ils s'expliquaient les raisons de leur gêne, ce qui les faisait rire et les soulageait. Quand le train repartait, ils échangeaient des sourires de connivence qui signifiaient : "Nous savons bien ce qu'il en est quand deux personnes se quittent sur le quai d'une gare..."

Auteur: Belletto René

Info: La vie rêvée et autres nouvelles

[ au revoir ] [ séparation ]

 

Commentaires: 0

hommes-femmes

Il semblerait que les femmes aient davantage besoin d'être aimées que les hommes.

Ça n'a rien à voir avec une attitude narcissique, comme certains psychanalystes le pensent, mais plutôt avec le fait que les femmes se sentent plus en insécurité que les hommes, bien qu'elles savent le cacher bien mieux qu'eux.

Elles veulent l'assurance d'être désirées.

Beaucoup plus à la merci de leur insécurité-bien-cachée que les hommes, les femmes veulent entendre et entendre de façon répétitive, pourquoi et comment elles sont aimées.

C'est comme si un vieux doute devait être dissipé.

Elles savent beaucoup mieux que les hommes que ce qui compte n'est pas ce qu'elles sont mais ce qu'ils pensent qu'elles sont.

D'ailleurs, elles se modèlent fréquemment à l'image que les hommes se font d'elles.

Elles sont secrètement effrayées que leur homme bien aimé découvre soudainement à quel point elles sont vulnérables et faibles.

Elles savent bien qu'elles ne sont pas parfaites mais elles connaissent aussi toute l'importance de paraitre comme tel, pour ces messieurs qui ne voient pas plus loin que le bout de leur nez.

Les dames ne sont pas inconstantes dans leur affection, contrairement aux hommes, puisque ceux-là placent vraiment très haut leur Idéal-du-Moi.

En général les femmes n'ont pas cette puissante urgence qui les pousse à idéaliser leur partenaire.

Elles peuvent aimer les hommes tout en connaissant leurs pires défauts et leurs failles ultimes.

Ce qui est beaucoup plus difficile pour un homme.

Voilà pourquoi elles sont moins enclines à avouer leurs fautes et leurs humaines faiblesses, bien qu'elles en soient conscientes la majeure partie du temps.

Elles perçoivent bien cette nécessité psychologique chez l'homme qui le pousse à vouloir rendre réel son idéal.

Les femmes se protègent à l'aide de leur fierté puisque leurs profondes vulnérabilité et insécurité rendent cette protection nécessaire.

Elles ont besoin, plus que les hommes, de se sentir rassurées sur le fait d'être aimées avant de pouvoir commencer à aimer.

Sensibles à la moindre inattention, négligence ainsi qu'au manque d'appréciation, elles craignent de ne céder trop facilement lorsque les hommes leur font la cour.

Cette peur, si souvent justifiée, les fait attendre et hésiter, suscite leurs résistances, et retarde leurs réponses aux tentatives de séduction.

Auteur: Reik Theodor

Info:

[ inquiétude ] [ regard de l'autre ] [ femmes-par-homme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

philosophe

Il y eut un homme qui, en ce temps-là, osa pousser les théories nouvelles jusqu’à leurs dernières conséquences : ce fut le marquis de Sade. Avec une logique implacable, et dans une forme parfois digne des encyclopédistes, il développa, sans en omettre un seul détail, le programme nouveau qui allait être celui des penseurs du siècle suivant.

Selon lui, plus de fausseté, plus d’hypocrisie, le flambeau de la philosophie (c’est-à-dire de la science) a dissipé toutes les impostures anciennes ; il convient de s’en tenir au rôle dicté par la nature et de ne plus écouter que nos seuls instincts.

L’homme doit chercher à développer ses émotions le plus possible dans le sens indiqué par la nature, et la douleur étant plus grande que le plaisir, la douleur doit être l’agent principal du succès. C’est en blessant les arbres que l’on obtient de beaux fruits ; la cruauté est un ordre même de la nature.

Celle-ci, contrairement aux fausses idées chrétiennes, nous ordonne de faire aux autres ce que nous ne voudrions pas qu’il nous fût fait. La raison du plus fort est toujours la meilleure ; Bismarck, Nietzsche et les meilleurs auteurs du dix-neuvième siècle n’ont rien dit de mieux.

Il est regrettable que cet écrivain ait compromis la réputation de ses ouvrages par d’absurdes bravades érotiques qui permirent à ses héritiers directs de faire rayer son nom de l’histoire littéraire ; s’il s’en fût tenu aux seules idées philosophiques qu’il exprimait alors, sa place dans l’histoire des idées, à la veille de la Révolution française, eût été celle d’un ancêtre vénéré. Il suffit de relire les principaux ouvrages des écrivains du xixe siècle pour s’en convaincre.

Dans son Origine des espèces et sa Descendance de l’homme, Darwin ne fit que confirmer point par point toutes les affirmations du marquis, et remettre en première place l’instinct naturel de sélection. Les économistes, de Malthus à Stuart Mill, ne firent également que ratifier la brutalité de pareilles assertions.

Les littérateurs et les artistes hésitèrent pendant une partie du dix-neuvième siècle ; mais, bientôt, ils se convertirent, eux aussi, en présence des progrès incessants de la science, aux conclusions imposées par les lois naturelles. Le romantisme ne fut d’abord qu’un réalisme déguisé, et le naturalisme convertit définitivement les artistes aux doctrines scientifiques.

Ce fut ainsi que la littérature, au début du vingtième siècle, ne fut, en résumé, qu’une application étroite des règles posées par la Révolution française, et que la suprématie de l’instinct ramena l’homme qui, un instant, avait cru devenir Dieu, au simple rang des autres animaux qui l’avaient précédé dans l’échelle des êtres.

Auteur: Pawlowski Gaston de

Info: Voyage au pays de la quatrième dimension, Flatland éditeur, 2023, pages 113-114

[ résumé ] [ explication ] [ régression ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

biophysique

Comment les végétaux gèrent le trop-plein d’énergie solaire

La photosynthèse, c’est-à-dire la conversion d’énergie lumineuse en énergie chimique par les plantes, est essentielle à la vie sur terre. Un excès de lumière s’avère toutefois néfaste pour les complexes de protéines responsables de ce processus. Des chercheurs de l’Université de Genève (UNIGE) ont découvert comment Chlamydomonas reinhardtii, une algue unicellulaire mobile, active la protection de sa machinerie photosynthétique. Leur étude, publiée dans la revue PNAS, indique que les récepteurs (UVR8) qui détectent les rayons ultraviolets provoquent l’activation d’une valve de sécurité qui permet de dissiper sous forme de chaleur l’excès d’énergie. Un second rôle protecteur est ainsi attribué à ces récepteurs, dont l’équipe genevoise avait déjà montré la capacité à induire la production d’une "crème solaire" anti-UV.

Grâce à la photosynthèse, l’énergie du soleil est convertie par les végétaux en énergie chimique afin de produire des sucres pour se nourrir. La première étape de ce processus, qui se déroule dans des compartiments cellulaires nommés chloroplastes, consiste à capturer des photons de lumière grâce à la chlorophylle. Si la lumière est essentielle aux plantes, un excès de soleil pourrait endommager leur machinerie photosynthétique, ce qui affecterait leur croissance et leur productivité. Pour se protéger, les plantes activent alors un mécanisme de protection lorsque la lumière est trop abondante, qui fait appel à une série de protéines capables de convertir l’excès d’énergie en chaleur afin qu’elle se dissipe.

Produire des protéines qui détournent l’énergie

"Ce sont les rayons ultraviolets de type B qui sont susceptibles de causer le plus de dégâts à l’appareil photosynthétique, et nous avons voulu savoir s’ils jouaient un rôle de déclencheur du mécanisme de protection et, le cas échéant, lequel», expliquent Michel Goldschmidt-Clermont et Roman Ulm, professeurs au Département de botanique et biologie végétale de la Faculté des sciences de l’UNIGE. Ces travaux, menés en collaboration avec des chercheurs du Laboratoire de physiologie cellulaire et végétale (CEA/CNRS/Université Grenoble Alpes/INRA) et de l’Université de Californie, ont été effectués chez Chlamydomonas reinhardtii, une algue mobile unicellulaire employée comme organisme modèle.

L’équipe de Roman Ulm avait découvert en 2011 l’existence d’un récepteur aux UV-B, baptisé UVR8, dont l’activation permet aux plantes de se défendre contre ces UV et d’élaborer leur propre "crème solaire" moléculaire. Les chercheurs découvrent aujourd’hui que, chez cette algue, ce récepteur déclenche un deuxième mécanisme de protection. "En effet, lorsqu’UVR8 détecte des UV-B, il active un signal qui enclenche, au niveau du noyau cellulaire, la production de protéines , qui seront ensuite importées dans les chloroplastes. Une fois intégrées à l’appareil photosynthétique, elles contribuent à détourner l’énergie en excès, qui sera dissipée sous forme de chaleur grâce à des vibrations moléculaires", détaille Guillaume Allorent, premier auteur de l’article.

Chez les plantes terrestres, la perception des UV-B par ce récepteur est également importante pour la protection de la machinerie photosynthétique, mais le mécanisme n’a pas encore été élucidé. "Il est cependant crucial pour la productivité agricole et l’exploitation biotechnologique des processus photosynthétiques de mieux comprendre les mécanismes responsables de la photoprotection contre la lumière solaire et ses rayons UV-B", indique Michel Goldschmidt-Clermont. La recherche continue.



 

Auteur: Internet

Info: https://www.unige.ch, 2016

[ assimilation chlorophyllienne ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

perceptions

Une première étude d’imagerie cérébrale sur les effets du LSD
"Ces travaux sont aux neurosciences ce que le boson de Higgs a été pour la physique des particules".
Cette déclaration, pour le moins accrocheuse, vient de David Nutt, neuropsychopharmacologue et chercheur sénior de l’étude en question qui vient d’être publiée dans la revue PNAS en mars dernier. Et un peu comme pour le boson de Higgs, les résultats ont confirmé la théorie, à savoir que les modifications d’activité cérébrale qui ont été observées rendent très bien compte de ce qu’un "trip à l’acide" peut provoquer comme état mental !
Le protocole expérimental conçu par l’équipe de Nutt a fait appel à une vingtaine de sujets qui venaient deux journées différentes au laboratoire. Dans un cas le sujet recevait 75 microgrammes de LSD intraveineux, et dans l’autre cas un placebo, c’est-à-dire rien d’autre qu’un liquide physiologique. On a pu ainsi comparer les effets réels du LSD versus toute autre modification (produites par exemple par des attentes, des conditionnements, etc.) chez la même personne.
Le protocole est assez impressionnant en termes d’instruments utilisés pour ne rien manquer aux effets de l’acide lysergique diéthylamide (le nom complet du LSD). Trois techniques complémentaires ont ainsi été utilisées : l’ASL (ou "arterial spin labelling", l’IRMf ou imagerie de résonnance magnétique fonctionnelle, et la magnétoencéphalographie (les deux premières étant des lectures indirectes de l’activité nerveuse basées sur le flux sanguin dans les capillaires cérébraux).
L’analyse des résultats obtenus avec ces différentes techniques combinées a permis de mieux comprendre deux grands types d’effets associés à la prise de LSD : les hallucinations visuelles et le sentiment de dissolution du soi.
Dans le premier cas, les trois techniques utilisées ont mis en évidence une augmentation du débit sanguin dans le cortex visuel, une diminution de la puissance des rythmes alpha, et une beaucoup plus grande connectivité fonctionnelle. Trois modifications dont l’importance était corrélée avec l’intensité des expériences subjectives rapportées par les sujets.
Comme le rapporte l’auteur principal de l’étude, Robin Carhart-Harris, c’est un peu comme si les sujet voyaient, mais avec leurs yeux fermés. Autrement dit, c’est l’activité intrinsèque ou endogène de leur cerveau, leur imagination pourrait-on dire, qui alimente alors fortement le système visuel et non plus le monde extérieur. Et de fait, les scientifiques ont pu observer beaucoup de régions cérébrales (liées à l’audition, l’attention, le mouvement) interagir non seulement avec les régions visuelles mais entre elles sous l’influence du LSD. Il y avait donc cet aspect plus "unifié" du cerveau favorisé par la drogue.
Mais en même temps, il y avait aussi un aspect plus "fragmenté" dans d’autres réseaux cérébraux, preuve de plus qu’une même substance peut avoir différents effets dans différents endroits du cerveau, a fortiori une substance aux effets complexes comme le LSD. La baisse de connectivité a surtout été observée entre deux structures cérébrales, le gyrus parahippocampique et le cortex rétrosplénial (une partie du cortex cingulaire postérieur). Et l’intensité de cette "déconnexion" était corrélée au niveau subjectif à celle de l’impression de dissolution du soi et de l’altération du sens des choses.
Encore une fois ici, l’impression de devenir un avec les autres, avec la nature ou même avec l’univers rapportée par des décennies d’utilisation de cette substance trouve ici un corrélat neuronal intéressant. D’autant plus que ces impressions, qui sont souvent interprétées dans un cadre spirituel ou religieux, semblent être associées à des améliorations du bien-être durant un certain temps après que les effets immédiats de la drogue se soient dissipés.
C’est d’ailleurs l’objet d’une autre étude de la même équipe publiée cette fois en février dernier dans Psychological Medicine, et qui montre qu’une certaine "fluidité cognitive" pourrait être conservée un certain temps après l’utilisation de LSD, ouvrant ainsi la voie à un usage thérapeutique, notamment pour la dépression et la rumination mentale qui lui est associée.

Auteur: Internet

Info: http://www.blog-lecerveau.org, 25 avril 2016

[ cognition ]

 

Commentaires: 0

satellite naturel

A Villers, de ma fenêtre, je regarde la plage pour savoir si elle est en marée haute ou basse…grâce au travail incessant de la Lune. C’est la banlieue de la Terre et ses 384 000 km de distance ne sont plus un problème pour aller s’y balader (en fusée) en attendant de s’y établir, sinon pour y habiter, construire une base pour la conquête de l’espace.

Est-ce à cause de Pierrot que la Lune tourne autour de la Terre en 27,3 jours et sur elle-même également en 27,3 jours ? Sans doute, car Pierrot veut toujours nous regarder, alors la Lune, à cause de cette égalité de rotation, présente toujours la même face à la Terre. La Lune n’émet pas de lumière propre, mais réfléchit les rayons du soleil et donc seule une moitié de sa surface est éclairée et vue depuis notre planète. Ce qui permet à Pierrot de nous réserver ses phases lunaires : la pleine lune lorsque sa face visible est totalement éclairée par le Soleil puis complètement plongée dans la nuit à la nouvelle lune. Le reste du temps sous forme de croissant et de quartier où il se balance dessus pour s’amuser. Ces phases se reproduisent tous les 29,5 jours, berçant ainsi non seulement Pierrot sur son croissant de Lune, mais règlant sur Terre nos activités rurales, de la pêche… sans oublier, mesdames, votre coupe de cheveux en phase croissante.

Mais l’influence principale exercée par Pierrot (la Lune) sur la Terre est les marées. C’est le moment où il joue les marionnettistes et tire les ficelles. Bien que quatre fois plus petite que la Terre, elle exerce sur notre planète une force de gravité attirant à elle les océans. Le Soleil a également un rôle à jouer. Et comme la Terre tourne, la force de gravité de la lune fait que le renflement des océans de part et d’autre du globe terrestre fait monter et descendre les marées deux fois par jour. Il s’écoule donc un laps de temps d’environ 6 heures entre la marée haute et la marée basse. A noter que le magma présent sous la croûte terrestre subit lui aussi des mouvements correspondants au passage de la Lune… heureusement de moindres amplitudes que les marées océaniques. Pierrot, de sa Lune, à cause des marées, exerce aussi une influence sur la course du temps de la Terre. Comment ? L’énergie dissipée par les marées ralentit la rotation terrestre et la durée du jour s’allonge petit à petit. De six heures à l’origine de la Terre (il y a 4,5 milliards d’années) elle est passée à vingt- quatre heures aujourd’hui et dans quelques milliards d’années, une journée vaudra cinquante de nos jours actuels. Dans ce temps lointain, le problème des 35 heures ou 30 (ou moins !) par semaine dans le cadre d’une journée qui dure 1200 heures est définitivement résolu, mais une question demeure : combien d’heures par jour devront-ils alors travailler ? Le problème ne se posera pas, car au cours de ce temps, le couple Terre-Lune se séparera progressivement. A qui la faute de ce divorce annoncé ? Il faut sans doute le demander à Pierrot. En attendant cette échéance lointaine, le couple s’entend à merveille et nous pouvons toujours chanter : au clair de la lune, mon ami Pierrot et je puis avec sa plume (devenu clavier d’ordinateur) continuer à écrire un mot. La lune assure le maintien de l’axe de rotation terrestre, dont l’angle avec la verticale reste "coincé" entre 21 et 24°. Mais au fur et à mesure de leur séparation annoncée, la Lune agira de moins en moins sur le renflement de l’équateur, la stabilité axiale disparaîtra, et, en quelques millions d’années l’axe de la Terre se balancera de façon chaotique selon des angles allant de 0 à 85° détruisant toute stabilité climatique et rendant ainsi la vie sur Terre…impossible (vraisemblablement).

Est-ce pour cette raison lointaine que parfois Pierrot pleure sur son croissant de Lune ?

Auteur: Anonyme

Info: Publication facebook du 04.03.2021

[ astronomie ] [ effets ] [ futur ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel