Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 31
Temps de recherche: 0.0431s

moi

Cependant, lorsqu’on parle de conscience, chacun sait immédiatement, par expérience, de quoi il s’agit. Bien des gens, appartenant ou non aux milieux scientifiques, se contentent de croire que le conscient constitue à lui seul tout le psychisme et, dans ce cas, la psychologie n’a plus d’autre tâche que de distinguer, au sein de la phénoménologie psychique, les perceptions, les sentiments, les processus intellectuels et les actes. Et pourtant tout le monde s’accorde à penser que ces processus conscients ne forment pas des séries fermées sur elles-mêmes et sans lacunes, de sorte qu’il faudrait bien admettre l’existence de processus psychiques, et plus complets que les séries de ces derniers puisque certains comportent des processus conscients parallèles et d’autres non. Il semble alors naturel de mettre l’accent, en psychologie, sur ces processus somatiques, de voir en eux ce qui est proprement psychique et d’essayer de juger autrement les processus conscients. La plupart des philosophes et bien d’autres avec eux s’insurgent contre cette idée et déclarent que postuler l’existence d’un psychisme inconscient est une absurdité.

Et c’est pourtant là ce que doit faire la psychanalyse et c’est cela qui constitue sa seconde hypothèse fondamentale. Elle soutient que les processus accompagnateurs d’ordre soi-disant somatique constituent justement le psychisme et ne se préoccupe pas tout d’abord de la qualité de conscience.

Auteur: Freud Sigmund

Info: Dans "Abrégé de psychanalyse", trad. Anne Berman, Presses Universitaires de France, 1949, pages 18-19

[ énigme ] [ arrière-plan ] [ définie ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

fonction orale

Dès qu’il entre dans la dialectique de la frustration, l’objet réel n’est pas en lui-même indifférent, mais il n’a nullement besoin d’être spécifique. [...] Ce n’est pas l’objet qui joue là-dedans le rôle essentiel, mais le fait que l’activité a pris une fonction érotisée sur le plan du désir, lequel s’ordonne dans l’ordre symbolique.

Je vous fais remarquer au passage que cela va si loin, qu’il est possible que, pour jouer le même rôle, il n’y ait pas du tout d’objet réel. Il s’agit en effet seulement de ce qui donne lieu à une satisfaction substitutive de la saturation symbolique. Cela peut seul expliquer la véritable fonction d’un symptôme comme celui de l’anorexie mentale. Je vous ai déjà dit que l’anorexie mentale n’est pas un ne pas manger, mais un ne rien manger. J’insiste – cela veut dire manger rien. Rien, c’est justement quelque chose qui existe sur le plan symbolique. Ce n’est pas un nicht essen, c’est un nichts essen. Ce point est indispensable pour comprendre la phénoménologie de l’anorexie mentale. Ce dont il s’agit dans le détail, c’est que l’enfant mange rien, ce qui est autre chose qu’une négation de l’activité. De cette absence savourée comme telle, il use vis-à-vis de ce qu’il a en face à lui, à savoir la mère dont il dépend. Grâce à ce fait, il la fait dépendre de lui.

Auteur: Lacan Jacques

Info: dans le "Séminaire, Livre IV", "La relation d'objet", éditions du Seuil, 1994, page 255

[ explication ] [ objet symboliquement annulé ] [ indépendance ] [ toute-puissance ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

subversion

Jung, par exemple, n’a certes pas ramené les figures du mythe sexuel à de simples fantaisies et inventions poétiques, il a même pressenti en elles la dramatisation d’"archétypes", précisément, ayant un haut degré d’universalité et une réalité autonome ; mais cette réalité, il l’a comprise en des termes purement psychologiques, réduisant tout à des projections mentales de l’inconscient collectif et aux "exigences" que ferait valoir, chez l’homme, la part obscure et atavique de son psychisme, contre la part consciente et personnelle. Il n’y a pas là seulement une évidente confusion de plans ; il y a là également, à travers le recours abusif à la notion d’inconscient et la mobilisation d’une phénoménologie de psychopathes, la confirmation de la tendance générale moderne à ramener toutes choses à des mesures purement humaines. Si tout principe ayant, d’une manière ou d’une autre, un caractère transcendant, doit pourtant devenir, pour pouvoir être expérimenté, un "phénomène psychologique", il y a toutefois une différence fondamentale entre les deux attitudes suivantes : ou bien l’on fait tout commencer et finir dans la psychologie, ou bien l’on interprète la psychologie en fonction de l’ontologie. De fait, toutes les interprétations de Jung s’achèvent sur un plan très banal, et son intuition de la réalité supra-individuelle et éternelle des "archétypes" sexuels est vaine, ou bien tombe au niveau de quelque chose de contrefait, à cause d’une déformation mentale professionnelle (il s’agit d’un psychiatre et d’un psychanalyste) et de l’absence de références doctrinales adéquates.

Auteur: Evola Julius

Info: Dans "La métaphysique du sexe", éd. L'âge d'homme, page 159

[ critique ] [ incohérence ] [ dénigrement ] [ théories hors-sol ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

pronom personnel

Le tu est loin de s’adresser à une personne ineffable, à cette espèce d’au-delà dont les tendances sentimentalistes à la mode de l’existentialisme voudraient nous montrer l’accent premier. C’est tout à fait autre chose dans l’usage.

Le tu n'est pas toujours le tu plein dont on fait si grand état [...]. [...]

La deuxième personne est loin d’être toujours employée avec cet accent. Quand on dit dans l’usage le plus courant On ne peut pas se promener dans cet endroit sans qu’on vous aborde, il ne s’agit d’aucun tu, d’aucun vous, en réalité. Le vous est presque le réfléchi du on, il en est le correspondant.

Quelque chose de plus significatif encore – Quand on en vient à ce degré de sagesse, il ne vous reste plus qu’à mourir. Là aussi, de quel vous, de quel tu s’agit-il ? [...] Ce que vous vise, est tellement un autre que je dirai que c’est le reste de ceux qui s’obstineraient à vivre après ce discours [...]. Cela vous montre assez que la fonction de la deuxième personne en cette occasion est justement de viser ce qui est personne, ce qui se dépersonnalise.

En fait, ce tu qu'on tue là, c'est celui que nous connaissons parfaitement par la phénoménologie de la psychose, et par l'expérience commune, c'est le tu qui en nous dit tu, ce tu qui se fait toujours plus ou moins discrètement entendre, ce tu qui parle tout seul, et qui nous dit tu vois ou tu es toujours le même.

Auteur: Lacan Jacques

Info: Dans le "Séminaire, Livre III", "Les psychoses", éditions du Seuil, 1981, pages 433-434

[ indéfini ] [ personnaison ] [ discours permanent ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

cognition

La vue isole, le son intègre. Alors que la vue place l'observateur à l'extérieur de ce qu'il voit à distance, le son se répand dans l'auditeur. La vision se dissèque, comme Merleau-Ponty l'a observé (1961). La vision vient d'une direction à la fois vers l'être humain. Pour regarder une pièce ou un paysage, je dois bouger les yeux d'une partie à l'autre. Alors que lorsque j'écoute, je rassemble un son qui vient simultanément de plusieurs directions. Je suis au centre de mon monde auditif, qui m'enveloppe, faisant de moi une sorte de noyau de sensation et d'existence... On peut s'immerger dans l'audition, dans le son. Il n'y a aucun moyen de s'immerger de la même manière dans la vision.
Par contraste avec la vision, le sens qui dissèque, le son est donc un sens unificateur. Un idéal visuel typique serait clair et bien dessiné, dont on pourrait séparer les parties. L'idéal auditif, en revanche, est une harmonie, une mise ensemble.
L'intériorité et l'harmonie sont des caractéristiques de la conscience humaine. La conscience de chaque humain est totalement intériorisée, connue de l'intérieur la personne seulement et inaccessible à toute autre individu directement de l'intérieur. Chaque personne qui dit "je" signifie donc quelque chose de différent pour chacun. Ce qui est "je" pour moi, n'est que "tu" pour toi...
Dans une culture orale primaire, où le mot n'a son existence que dans le son... Cette phénoménologie auditive, qui passe par la parole, pénètre profondément la conscience de l'existence humaine. La manière dont le mot est est vécu étant toujours capitale dans la vie psychique.

Auteur: Ong Walter J.

Info: Orality and Literacy: The Technologizing of the Word

[ audition ] [ oeil ] [ oreille ] [ imagination sonore ]

 

Commentaires: 0

philosophie hégélienne

La Phénoménologie de l’Esprit montre la structure de la raison comme structure de la domination et comme dépassement de cette domination. La raison se développe à travers le développement de la conscience de soi de l’homme qui triomphe de la nature et du monde historique et en fait le matériau de sa propre réalisation. […]

Mais la Phénoménologie de l’Esprit ne serait pas l’auto-interprétation de la civilisation occidentale si elle n’était rien de plus que le développement de la logique de la domination. La Phénoménologie de l’Esprit conduit au dépassement de cette forme de liberté qui provient de la relation antagonique avec l’autre. Et le vrai mode de liberté n’est pas l’activité incessante de la conquête, mais la cessation de cette activité, dans la connaissance limpide et la satisfaction de l’être.  […]

Tout au long de la Phénoménologie de l’Esprit, la tension entre le contenu ontologique et le contenu historique demeure : les manifestations de l’esprit sont les étapes principales de la civilisation occidentale, mais ces manifestations historiques restent entachées de négativité, l’esprit ne revient à lui que dans le savoir absolu et en tant que savoir absolu. C’est en même temps la forme vraie de la pensée et la forme vraie de l’être. L’être est dans son essence même raison. Mais la forme la plus haute de la raison est, pour Hegel, presque à l’opposé de la forme existante : elle est plénitude atteinte et conservée, unité transparente du sujet et de l’objet, de l’universel et de l’individuel, une unité dynamique plutôt que statique, dans laquelle tout devenir est une auto-extériorisation libre (Selbst-Entäusserung), une libération et une jouissance des potentialités. Le travail de l’histoire trouve sa fin dans l’histoire : l’aliénation disparaît, et avec elle la transcendance et le flux du temps. L’esprit "dépasse" sa forme temporelle ; il nie le Temps. Mais la "fin" de l’histoire se ressaisit de son contenu : la force qui accomplit la conquête du temps est la mémoire (recollection du souvenir). […]

L’être n’est plus la transcendance douloureuse vers l’avenir, mais la reconquête pacifique du passé.

Auteur: Marcuse Herbert

Info: Dans "Eros et civilisation", trad. de l'anglais par Jean-Guy Nény et Boris Fraenkel, éditions de Minuit, Paris, 1963, pages 105-108, à propos d'un ouvrage de Hegel

[ résumé ] [ souvenir ] [ ouroboros ] [ appartenance lucide ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

spéculation métaphysique

On peut s'amuser à décanter de façon ternaire la manière dont les hommes ont, consciemment ou pas, codé le monde présenté à leur sens. Tout est trois.

Ainsi des 3 idiomes humains abstraits : langage, musique, mathématiques.

De notre perception du réel : manifestation, sensation, mise dans la continuité (voir tiercité de C.S. Peirce)

Du codage sémiotique de ce réel : coopération de trois sujets, le signe, son objet et son interprétant (Peirce aussi)

Des fonctions du langage : sujet, verbe, compléments (acteurs - moteurs - qualités)

Des fonctions de la musique tonale : toniques - dominantes - sous dominantes (socles - moteurs - paysages défilant)

Des trois infinis du mathématicien George Cantor : a) Le plus complet, dans être de l'au-delà entièrement indépendant, Dieu, qu'il nomme infini absolu ou simplement l'absolu. b) Lorsqu'il se produit dans le monde créé c) Quand l'esprit le saisit dans l'abstrait comme grandeur, nombre ou type d'ordre mathématique.

De la philosophie : (a) Phénoménologie ; (b) Science normative ; (c) Métaphysique (C.S. Pierce)

Des éléments primaires de l'occultisme : Feu, Eau et Air.

Des trois couleurs primaires soustractive (lumière) et additives (matière).

Partant de ce dernier exemple du double ternaire inversé des couleurs (est-ce un équivalent visuel de la gamme par tons ?) on ne résiste pas à franchir une étape, ce qui donne l'impression de passer au travers de notre miroir ontologique. L'idée est qu'il y a un ordre sous-jacent articulé sur cette base six (double triades inverses) et que si on veut formaliser cet ordre le nombre sept - ou zéro - est nécessaire.

Mais zéro est-il un nombre ? Dans cette idée le sept "englobe" le tout, au sens où il représente le zéro, source de tout et indiscriminée "créatrice" du manifesté. Zéro qui devient sept une fois que le double cycle ternaire, arrivé à son terme, recommence le cycle. Nous créons donc ici ce paradoxe : zéro est l'inversion de sept. En clair, Sept, étant l'inversion de Zéro, n'existe pas.

Voilà, merci pour votre attention, sortez en rang par deux et en faites pas trop les fous durant la récré.

Auteur: Mg

Info:

[ humour ] [ septénaire ] [ numérologie ] [ métatron ]

 
Commentaires: 1
Ajouté à la BD par miguel

philosophie

- Qu'est-ce que c'est, un virus ? À première vue, il s'agit d'une simple entité biologique. Mais toutes sortes de choses, semble-t-il, peuvent devenir "virales". Zizek a même récemment modifié le célèbre jugement infini de Hegel ("l'esprit est un os") de sorte qu'il se lise "l'esprit est un virus". La viralité n'est peut-être pas quelque chose, mais plutôt une qualité ou une caractéristique qui expose un étrange statut ontologique ou phénoménal ou peut-être même la capacité de certaines entités ? 

- A un certain moment de la Phénoménologie de l'Esprit, Hegel lui-même utilise la notion de contagion, d'infection, d'Ansteckung* en relation avec l'esprit. C'est dans le chapitre qui traite de la lutte des Lumières contre la superstition : la pure perspicacité éclairée, dit-il de façon assez surprenante, se répand comme un parfum ou une infection pénétrante, et la conscience ne s'en aperçoit que trop tard. L'infection est déjà généralisée, "il est trop tard pour lutter, et tous les remèdes adoptés ne font qu'aggraver la maladie, car elle s'est emparée de la moelle de la vie spirituelle." L'esprit agit de manière "invisible et imperceptible", "il s'infiltre dans les parties nobles et s'est bientôt emparé des parties vitales et de tous les membres de l'idole inconsciente ; et puis un beau matin, il donne à son camarade une poussée du coude, et bang ! crash ! l'idole se retrouve par terre". La dernière partie est la citation du Neveu de Rameau de Diderot, elle montre comment la persistance muette de l'esprit (das stumme Fortweben des Geistes) sape les idoles auxquelles la superstition s'accrochait. Hegel parle en outre de "l'infection par les Lumières", sous-entendant, par extension, que la raison est un virus. Cette image de l'esprit en tant que contagion est frappante, non seulement parce qu'elle dépeint le progrès de l'esprit comme une propagation virale qui se fait sans effort, mais surtout parce que cette qualité infectieuse virale était traditionnellement réservée aux pouvoirs de la sensualité, des passions, de la folie, des comportements et des croyances "irrationnels" (comme la superstition) ; en ultime analyse à la matière et au matériel. Il y avait toujours la crainte explicite que le matériel contamine les royaumes spirituels supérieurs. L'image traditionnelle est plutôt que la matérialité est virale et que l'esprit est là pour restreindre et contenir cette contamination. La matière comme maladie, l'esprit comme remède - le chemin spirituel était sur base de purification. Le péché étant syndrome d'immunodéficience. Mais là Hegel renverse cette image et conçoit une partie de l'avancement spirituel comme homologue à la propagation d'une maladie contagieuse. Mais seulement en partie, une face - l'envers nécessaire, sa contrepartie, est "l'action de l'essence négative" qui présente "le tumulte pur et la lutte violente". Pas question de s'en remettre simplement à l'esprit comme contagion. L'idée est tentante de voir dans le virus quelque chose qui relie esprit et matière, quelque chose à leur intersection, une propriété commune qu'ils partagent, si bien conçue, et de construire à partir de là une proposition d'"ontologie virale".

Il faut aussi penser aux très élémentaires mécanismes de la mimésis qui s'articulent  autour de quelque chose qui ressemble à la contagion (j'ai écrit en détail à ce sujet). Le virus apparaît comme un péril externe contingent, mais en même temps il indique une dimension au cœur (son extimité ?) de l'humain.

Auteur: Dolar Mladen

Info: https://crisiscritique.org/uploads/24-11-2020/interview-with-mladen-dolar.pdf. Trad Mg. *contamination

[ rationalisme ] [ covid 19 ] [ corps-esprit ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel