Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 29
Temps de recherche: 0.0399s

étymologie

Quant à l’adjectif esôterikos, il semble apparaître d’abord dans les milieux aristotéliciens au Ier siècle après Jésus-Christ. L’une des premières attestations s’en trouve en effet dans un ouvrage assez caustique de Lucien de Samosate intitulé Philosophes à vendre (vers 166). A qui veut acheter un esclave, Lucien conseille d’en choisir un qui soit disciple d’Aristote ; ainsi, dit-il, on en aura deux pour le prix d’un : "un vu de l’extérieur, un autre vu de l’intérieur [...] souviens-toi de donner au premier le nom d’exotérique, au deuxième celui d’ésotérique". L’Ecole aristotélicienne en effet suivant peut-être les indications de son fondateur, distinguait dans les écrits du maître, deux sortes de textes : des ouvrages largement publiés (et aujourd’hui perdus) qu’elle qualifiait d’exotériques, et des traités beaucoup plus difficiles et peu diffusés en dehors de l’Ecole (les seuls qui nous soient parvenus) qu’elle appelait acroamatiques (ce qui signifie : relatifs à un enseignement oral). [...] [Le texte de Lucien] témoigne en outre d’un changement de terminologie : ce n’est plus acroamatique mais ésotérique qui est opposé à exotérique. Tout se passe comme si cet adjectif, qu’Aristote emploie au sens très profane d’ "extérieur" ou de "public", avait fini par susciter son double inversé. [...] Trente ans plus tard, le terme s’est imposé, comme le prouve Clément d’Alexandrie qui fournit, sous la forme d’un adjectif substantivé au neutre pluriel (ta esôterika, "les (livres) ésotériques"), la première attestation d’esôterikos, pris en un sens noble, et désignant la classe des écrits qu’Aristote réservait aux savants. Le terme, désormais acquis, ne connaîtra cependant jamais qu’une diffusion restreinte et quasi technique.

Quant au substantif "ésotérisme", tous les efforts pour en trouver des attestations remontant au XVIIIe siècle sont jusqu’ici demeurés vain. Dans l’état actuel des recherches, on peut admettre que le terme apparaît pour la première fois en 1828 sous la plume d’un historien français, Jacques Matter, dans son Histoire du gnosticisme et de son influence. C’est le socialiste mystique Pierre Leroux qui, vers 1840, en assurera la diffusion dans son célèbre ouvrage De l’Humanité pour qualifier la doctrine pythagoricienne.

Auteur: Borella Jean

Info: "Esotérisme guénonien et mystère chrétien", éditions l’Age d’Homme, Lausanne, 1997, pages 20-21

[ historique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

catharisme

Quoiqu’il en soit à un certain tournant de la vie commune en Europe, la question de ce qui ne va pas dans la Création comme telle s’est posée. Elle s’est posée pour des gens dont vous verrez très suffisamment la notion qu’actuellement il nous est très difficile de savoir ce qu’ils pensaient bien exactement, je veux dire ce qu’a représenté effectivement, dans toutes ses incidences profondes, ce mouvement religieux et mystique qui s’appelle "l’hérésie cathare".

On peut même dire que c’est le seul exemple historique où une puissance temporelle se soit trouvée d’une telle efficace qu’elle a réussi à supprimer presque toutes les traces du procès. Tel est le tour de force qu’a réalisé la Sainte Église Catholique et Romaine. Nous en sommes à trouver dans des coins des documents dont très peu se présentent avec un caractère satisfaisant. Les procès d’inquisition eux-mêmes se sont volatilisés et nous n’avons que quelques témoignages latéraux de ci de là.

Par exemple, un père dominicain nous dit que ces cathares étaient dans tous les cas de très braves gens, foncièrement chrétiens dans leur manière de vivre et particulièrement de mœurs d’une pureté exceptionnelle. Je crois bien que les mœurs étaient d’une pureté exceptionnelle, puisque le fond des choses était qu’il fallait foncièrement et essentiellement se garder de quelque acte qui pût, d’aucune façon, favoriser la perpétuation de ce monde exécrable et mauvais dans son essence.

La pratique de la perfection consistant donc essentiellement à viser à atteindre, dans l’état de détachement le plus avancé, la mort qui était pour eux le signal de la réintégration dans un monde de lumière, dans un monde animique caractérisé par la pureté et la lumière, et qui était le monde du vrai, du bon Créateur originel, celui dont toute la création avait été souillée par l’intervention du mauvais Créateur, du démiurge, lequel y avait introduit cet élément épouvantable qui est celui de la génération, et aussi bien de la putréfaction, c’est-à-dire de la transformation.

C’est dans la perspective aristotélicienne de la transformation de la matière en une autre matière qui s’engendre elle-même, que cette perpétuité de la matière était le lieu où était le mal. La solution, comme vous le voyez, est simple. Elle a une certaine cohérence si elle n’a peut-être pas toute la rigueur désirable.

Auteur: Lacan Jacques

Info: Séminaire VII, L'éthique, séance du 27 janvier 1960

[ christianisme ] [ résumé ] [ principes ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

philosophie

Les trois principes de la logique aristotélicienne, qui fondent l'édifice de la raison, sont l'expression formalisée de cette récusation de toute confusion incestuelle qui a formé une part fondamentale du propos central de la civilisation hellénistique: le premier d'entre eux, le principe d'identité, vise à établir ce que j'appelle le "corsetage distinctif des étants", à partir de ce saut majeur vers l'humanisation que constitue le stade du sein, cette véritable dé-fusion qui cristallise la naissance d'un sujet distinctif ne se confondant désormais plus avec les bras qui le portent ou le sein qui le nourrit, reconnus comme attestation d'une altérité dorénavant irréductible. De proche en proche, par le jeu des inférences et des extrapolations, cette faculté acquise d'appréhension distinctive du monde s'étendra à tous les étants qui le peuplent. Le principe de non-contradiction, qui forme le deuxième des trois grands principes de la logique aristotélicienne, a pour objet de garantir la cohérence des propriétés intrinsèques et relationnelles propres d'un objet quel qu'il soit. Sa matrice initiale en est également la récusation de la confusion incestuelle: les conflits logiques inter et intra générationnels qui résulteraient du franchissement d'un tel interdit sont insolubles pour la raison et ouvrent une béance vers les gouffres de la psychose. Le mythe d'Œdipe notamment l'atteste de manière indubitable: sous peine d'être aveuglé, supplice qu'Œdipe s'inflige au terme de ses transgressions, c'est-à-dire d'être privé de lumière au sens littéral autant que métaphorique dans l'ordre de la raison, un fils ne peut épouser sa mère, qui sinon deviendrait à la fois la mère de ses enfants, mais en serait également la grand-mère, lui-même devenant leur père mais également leur frère et leur grand-père, en sa qualité de conjoint de celle qui, sous un certain angle, est leur grand-mère. On le voit, la folie n'est pas loin, sœur d'une telle confusion. Le troisième pilier de la logique classique, le principe du tiers exclu, forme le gardien de cette porte ouvrant sur la folie, interdisant la tentation de l'édification d'univers alternatifs où, entre l'existence et l'inexistence d'un étant, pourrait se trouver un état intermédiaire permettant illusoirement de laisser une place à l'impensable - il convient cela dit de préciser incidemment que l'application au domaine de l'être de ce principe du tiers exclu, selon laquelle il n'y aurait pas de gradations dans l'être semble n'être pas soutenable dès lors qu'elle est appliquée au domaine du vivant, tant il y a bien dans l'ordre de l'inscription des êtres vivants au sein du monde différentes gradations d'être, depuis l'organisme mono cellulaire jusqu'à l'être humain en passant par les multiples modalités plus ou moins évoluées de présence au monde que l'on trouve dans le règne animal.

Auteur: Farago Pierre

Info: Au sujet du diable

[ inceste ] [ traduction psychanalytique ] [ castration ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

philosophie antique

Il n’y a pas, chez Platon, d’analyse du processus cognitif : ce qui importe, pour lui, c’est de savoir si ce que l’on connaît est vraiment réel. Aristote, au contraire, analyse, magistralement, l’acte de connaissance. Il y voit un processus d’abstraction : la forme intelligible est abstraite, dégagée de la chose connue, par l’intelligence, et vient s’imprimer dans notre esprit qu’elle informe. C’est par la médiation de cette forme, abstraite de la chose, c’est-à-dire par le concept, que nous connaissons la chose, alors que chez Platon la connaissance véritable est au fond une participation intuitive de l’intelligence à l’essence de l’objet connu. 

[conséquences de l'intégration de la noétique aristotélicienne au Moyen Age]

D’une part, s’accentuant et se durcissant au cours du temps, en dépit de l’admirable équilibre de la synthèse thomasienne, la noétique aristotélicienne conduit, contre le vœu de ses partisans, à la réaction nominaliste – dont la préservait son platonisme implicite (celui de la forme intelligible et de l’intellect agent) : puisque nos concepts ne peuvent pas être des modes de participation aux essences (réellement existantes) des choses, cessons d’attribuer une réalité quelconque à leur contenu, et réduisons leur existence de concepts à celle des noms qui les désignent ; car seuls sont réellement existants les êtres individuels concrets (et donc, éventuellement, le Christ Jésus dans sa présence historique effective, ou dans sa présence extroardinaire et surnaturelle). D’autre part, cette noétique systématisée implique une sorte de laïcisation ou de profanisation de l’intelligence. En dégageant pour lui-même le processus que met en œuvre tout acte de connaissance et en le mettant au centre de la réflexion philosophique, on est amené à négliger la considération des degrés de connaissance et l’importance des distinctions qui les spécifient : du strict point de vue du fonctionnement de l’appareil cognitif, il n’y a en effet aucune différence apparente entre concevoir un triangle, un chat ou Dieu, sinon dans le mode d’abstraction. Il en résulte qu’a priori un parfait athée pourrait être parfait théologien, et que la théologie n’a rien de sacré, du moins quant aux opérations intellectuelles qu’elle requiert : comme l’affirme Luther, c’est un exercice entièrement profane. Enfin, et inversement, il devient difficile de qualifier d’intellectuel ce qui est proprement mystique et surnaturel, dans la mesure où l’activité intellectuelle se caractérise par l’emploi, dans la connaissance d’un objet, d’une médiation conceptuelle, alors que les plus hauts états mystiques – mais les théologiens ne sont pas tous d’accord – semblent exclure tout intermédiaire, et même les concepts. [...] Résumant les trois conséquences que nous venons de repérer, nous dirons que tout se passe comme si on était convié à procéder à une triple dichotomie : du connaître et de l’être, de la science et de la foi, de l’intelligence et de la prière.

Auteur: Borella Jean

Info: "Esotérisme guénonien et mystère chrétien", éditions l’Age d’Homme, Lausanne, 1997, pages 343-344

[ aristotélisme ] [ christianisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

protestantisme

Luther en 1515, en 1516, les notes du cours sur l’Épître aux Romains le montrent jusqu’à l’évidence — Luther a pris possession réellement de ses idées personnelles. Pour le bienfait qu’elles lui procurent, il leur voue tant de reconnaissance, il leur suppose tant d’efficacité qu’il entreprend de communiquer aux autres le cher trésor qu’il vient de découvrir. Aux autres ? aux étudiants d’abord, dans ses cours. Aux simples gens, dans ses prônes. Aux théologiens également, aux hommes doctes, ses pairs, ses anciens maîtres, ses émules... Et voilà Luther, petit à petit, qui prend figure de chef d’école. Le voilà, en septembre 1516, qui rédige et fait discuter sous sa présidence par un candidat, Bernhardi de Feldkirchen, des thèses de viribus et voluntate hominis sine gratia dont le titre seul montre sa libération des doctrines  gabriélistes et de l’aristotélisme. Le voilà, un an après très exactement, en septembre 1517, qui de nouveau préside à une dispute Contra Scolasticam theologiam et rédige à cette occasion pour un autre candidat, Fr. Gunther, des thèses, 97 thèses, qui sont un exposé des grandes lignes directrices de sa doctrine.

L’homme, transformé en un arbre pourri, arbor mala factus, ne peut vouloir et faire que le mal. Sa volonté n’est pas libre ; elle est serve. Dire qu’il peut, par ses propres moyens, parvenir à ce sommet, l’amour de Dieu par-dessus tout : mensonge et chimère (terminus fictus, sicut Chimera). Par nature, l’homme ne peut aimer Dieu qu’égoïstement. Tout ceci, répudiation fort nette par Luther des doctrines scotistes et gabriélistes. Et pour que nul n’en ignorât, il l’indiquait à la fin de chacune de ses thèses : Contra Scotum, contra Gabrielem, contra dictum commune... Ensuite, venaient des thèses philosophiques. Avec la même vigueur sans ménagements, Luther proclamait sa haine d’Aristote, de sa métaphysique, de sa logique, de son éthique : "L’exécrable éthique aristotélicienne est tout entière l’ennemie mortelle de la grâce (contre les scolastiques !) — Il est faux que la théorie du bonheur d’Aristote ne soit pas opposée radicalement à la doctrine chrétienne (contre les moralistes, contra morales !). — Un théologien qui n’est pas logicien est un monstre d’hérésie : voilà une proposition elle-même monstrueuse et hérétique ! " Après quoi Luther concluait en développant son thème favori, l’opposition fondamentale de la loi et de la grâce : "Toute œuvre de la loi sans la grâce a l’apparence d’une bonne action ; vue de près, elle n’est qu’un péché. — Maudits, ceux qui accomplissent les œuvres de la loi ; bénis, ceux qui accomplissent les œuvres de la grâce. — La loi bonne qui fait vivre le chrétien, ce n’est pas la loi morte du Lévitique ; ce n’est pas le Décalogue ; c’est l’amour de Dieu, répandu dans nos cœurs par le Saint-Esprit".

Ainsi argumentait Luther en 1516 et en 1517.

Auteur: Febvre Lucien

Info: Un destin : Martin Luther, PUF, 1968, pages 54-55

[ enseignement ] [ philosophie ] [ théologie ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

moyen âge

Or, au cours du XIIe siècle, et plus encore au XIIIe siècle, il s’est produit un événement d’une portée incalculable et dont les conséquences n’ont pas fini de se faire sentir ; il s’agit de l’arrivée en Occident des écrits d’Aristote.

Ce qui était connu d’Aristote avant le XIIe siècle, c’est ce qu’on a appelé la Logique ancienne, c’est-à-dire les deux traités des Catégories et de L’Interprétation, communiqués aux Latins par Boèce, philosophe et homme politique mort martyr en 525. Tout le reste est inconnu. La philosophie avec laquelle s’est élaborée la pensée chrétienne, dès les origines, c’est le platonisme dont le représentant le plus éminent en Occident est S. Augustin, auquel il faut joindre Denys l’Aréopagite. C’est Platon qui a régné à peu près sans partage sur la pensée chrétienne durant douze cent ans. Mais c’est un Platon dont les œuvres sont ignorées. On ne connaît à cette époque que le Phédon et le Ménon, et une petite partie du Timée dont la cosmogonie inspirera l’Ecole de Chartres. Platon n’est pas une œuvre ou des textes, c’est une doctrine, une vision du monde et de Dieu qui enseigne une certaine idée de la création du monde, d’un Dieu-Providence et de l’immortalité de l’âme.

L’arrivée d’Aristote en Europe chrétienne est toute différente : c’est l’arrivée de textes. La thèse la plus répandue soutient que les œuvres d’Aristote, la Métaphysique, l’Ethique, la Physique, le Traité de l’âme, les Traités de sciences naturelles, etc., sont arrivés par l’intermédiaire des Arabes qui avaient traduit ces œuvres du grec en arabe, mais aussi du syriaque, traductions d’ailleurs exécutées à la demande des autorités musulmanes, par des savants chrétiens orientaux. Les chrétiens d’Occident entrent en contact avec cette littérature en Espagne, lors des débuts de la Reconquista, principalement à Tolède où, à l’instigation de l’archevêque Raymond et de Dominique de Gonsalvi, est créé un collège de traducteurs où collaborent les juifs, les arabes musulmans et les chrétiens. [...] L’arrivée des textes d’Aristote en Europe chrétienne provoqua une crise culturelle majeure qui concerne toute la civilisation européenne, et pas seulement le monde restreint des philosophes. Voici pourquoi.

Aristote révélait aux chrétiens l’existence d’un mode de pensée dont ils n’avaient eu jusqu’alors aucune expérience et qu’on peut désigner d’un mot : un mode de pensée scientifique. Autant qu’un métaphysicien, Aristote est apparu – et est en réalité – un physicien, un philosophe de la physis, de la nature. Comme l’ont reconnu les historiens de la science, la physique d’Aristote est un des chefs-d’œuvre de l’esprit humain : c’est une admirable construction rationnelle. Or, la puissance de conviction de la raison est peu résistible. Ce qu’on a appelé la "crue aristotélicienne" faillit tout emporter et même la foi chrétienne. C’est qu’en effet [...] cette philosophie d’Aristote mettait en question trois dogmes fondamentaux de la révélation : le monde n’est pas créé, mais il existe depuis toujours ; Dieu n’est pas provident, il ignore le monde et ne connaît que lui-même ; enfin l’âme n’est pas immortelle, semble-t-il – car les textes d’Aristote à ce sujet sont ambigus. [...] C’est pourquoi l’Eglise ne pouvait accepter l’aristotélisme. A l’exception de la logique, tous les textes d’Aristote furent interdits de lecture à Paris en 1210, en 1215 puis, de la part de la papauté, en 1231, 1241, 1261, jusqu’à la condamnation du 7 mars 1277 [...]. Six ou sept condamnations portées au long du XIIIe siècle par l’autorité suprême, mais leur réitération même prouve leur inefficacité.

Auteur: Borella Jean

Info: "Situation du catholicisme aujourd'hui", éditions L'Harmattan, Paris, 2023, pages 191-192

[ remise en question ] [ découverte ] [ christianisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

cognition

Lorsqu'on réfléchit à une idée-concept c'est toujours à postériori. 

Pas tout à fait ici, puisque nous désirons aborder et tenter de caractériser le terme "conscience". Vu bien sûr "à partir de", l'entendement humain. 

Conscience humaine, ici notion-idée tant grégaire-objective, qu'individuelle-subjective, qui serait, selon nous autres singes dépoilés, la plus complexe et la plus évoluée à ce jour. 

Ah ah ah, c'te bonne blague. 

Soit. 

Selon FLP l'entendement humain est principalement scriptural, c'est à dire qu'il a pu se développer "un cran plus loin, ou plus" grâce aux symboles et langages, puis à l'écriture de signes organisés, bientôt stockés sur supports externes, ceci amenant l'émersion-développement d'une culture grégaire (dictionnaires, traductions, mathématiques, spécialisations théologico-scientifiques, recensement des tactiques militaro-politico-économiques, littérature, philos, intellectualisme, chatgpt, etc). Tout ceci maintenant traduit et trans-frontières, accessible à tous, planétarisé... numérisé... Avec une tendance à s'orienter vers l'image ; mais c'est une autre histoire.

Il y a donc un grand corpus-intellect humain, constitué au fil des générations par des millions de singularités qui bougent, agissent... réfléchissent, échangent, et manipulent les idées, principalement écrites donc. 

Corpus qui résulte de notre interaction avec la réalité (priméité), interaction qui génère par rétroaction, grâce à des idiomes qui codifient-définissent-organisent, nos divers points de vue,  (codés par des mots pour faire simple) sur ce réel. Un corpus suffisamment vaste, riche et varié pour que chaque subjectivité puisse s'y épanouir, y exister... se définir elle-même. Et s'y perdre. Aussi.

La preuve ici-même ?

C.S. Pierce dirait quelque chose comme ; humains-secondéités qui, au contact de leur réel-priméité, génèrent des textes, pensées-écrits, qui sont des tiercités. 

Ainsi l'IA matérialisée par chatgpt et consorts ne fait que manipuler ces humaines tiercités. Autant dire que par rapport aux développements divers de la vie bactérienne, et des combinaisons toujours plus complexes de molécules et de protéines qui s'en sont ensuivies, les langages humains font piteux. Pour l'instant.

Oublions ceci et réfléchissons selon la triade piercéenne, partant de l'idée que la priméité est au premier chef notre biotope terre-soleil, avec l'univers en arrière-plan. 

(Avec cette digression :  si la priméité est le soleil et la secondéité notre matrice Gaïa, cette dernière générerait alors des tiercités sous forme de vie organique et d'humains. Perspective éventuellement pessimiste dans la mesure où elle pourrait impliquer l'idée d'une terre-Gaïa terminus, à la surface de laquelle les humains ne seraient qu'éphémères et transitoires virus. Pourquoi pas.)

Mais restons sur cette triade initiale, qui peut être appréhendée comme purement mécanique, logique, voire simplement informationnelle récursive :

a) réalité source-priméité b) vie organique hommes-secondéité C) technologies écritures humaines-tiercité.  

Prenons maintenant un peu de recul en termes de temps et d'échelles, partant de ce que nous savons de plus basique pour ce qui concerne la vie "issue de la matière". A savoir à partir de la chimiosynthèse et surtout, de la photosynthèse. C'est à dire de l'interaction assez incroyable entre l'énergie solaire (photons) et certains atomes-molécules terrestres qui, par le truchement de l'anhydride de carbone*, en viennent à générer des chaines organiques, des végétaux, des animaux...  Et nous.  

Reprenons : l'idée-concept de départ à définir ici est celle de conscience, vue de, et rapportée à "l'entendement humain". ( Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. FLP, ne se refusant à aucune mégalomanie, s'attaque à l'esprit lui-même, sissi. D'autant qu'on dirait  que les paradoxes quantiques pointent vers cet impératif. Impératif qui pourra se résumer en une question : comment fonctionne l'observateur ?)

Ici se pose le vertige des limites que porte en lui le langage. Parce que ce dernier, usant de "symboles écrits", désignait/nommait originellement les éléments issus de notre réalité de "façon claire", un arbre est un arbre, une montagne est une montagne, etc... Langage aussi capable de désigner/nommer une abstraction généralisante comme "notre réel lui-même". Et qui, plus avant, est même apte à désigner l'observateur-générateur-manipulateur de l'idiome lui-même. Toi moi, nous autres humains lecteurs.

Puissance paradoxale d'une pensée symbolique suffisamment adroite pour se contempler en miroir d'elle-même via les jeux polysémiques et autres variés décalages signifiant-signifié.

Quel(s) terme(s) alors utiliser pour tenter d'approcher une définition de cette curieuse émergence auto-réfléxive en s'inspirant de l'interaction photosynthétique ?  médium, mécanisme, outil interactif, "quelque chose qui réfléchit"... intelligence... transmutation...  émergence...  interface pseudo rationnelle... pensée abstraite agissante ?... 

Quelques mots simples n'y suffiront pas, et, pour prendre un exemple, une AI totalisante comme chatgpt semble s'y perdre à l'identique, enfermée dans ce qu'il faut bien appeler un anthropisme limitatif. 

C'est ici que FLP, sous pilotage humain (ses participants-lecteurs inserteurs) pourra se positionner, via la conjonction-usage de plusieurs termes simultanés (verticaux, nuage de corrélats ?). Conjonction susceptible de mieux préciser-comprendre-communiquer tel ou tel mot ou situation. Ce qui pourrait bien aider à mieux définir-consolider certaines articulations de nos raisonnements. Mais aussi mieux approcher une image "rapportée" de la conscience humaine, en fonction de "contextes précis et délimités" - pour commencer. 

Fonction FLPique de dictionnaire intriqué - qui n'en n'est qu'à ses balbutiements - et qui s'amuse à sortir de la prison séquentielle du raisonnement écrit en ouvrant une réflexion qui s'arrête en un point, perpendiculaire en quelque sorte. Halte cogitation éventuellement aidée par ces termes-tags-étiquettes annexes, verticaux, ou en nuage. Listing annexe à tendance synonymique qui pourra se présenter comme suit pour ce texte même, éventuellement par ordre d'importance :

entendement

assimilation chlorophyllienne

gnose

méta-moteur

savoirs

mécanisme constructeur, etc.

Humaine-conscience-interface très limitée aussi, au sens où elle ne sert à peu près qu'à elle-même, femmes et hommes, enfermés encore et toujours dans une Culture communautaire trans-époque que nous qualifions volontiers de "solipsisme anthropique". 

Savoirs humains entassés-conjugués qui ressemblent donc à un genre de grande conscience désordonnée, pour laquelle des termes comme information, communication, virtualité, annales akashiques... quasi-esprit, savoirs compilés... Une fois bien mélangés-combinés, pourront faire l'affaire. Mais stop.

Intéressons-nous maintenant ici à la notion de vitesse, sans lâcher cette idée de comparer "comment nous pensons nous-mêmes" avec une photosynthèse qui opère à des échelles de l'ordre du millionnième de seconde et du millionnième de millimètre.  

Bonjour alors les infinités d'échelons et de déclinaisons de "consciences", ou de niveaux de réflexions qui pourront découler de cette idée ; enchevêtrés de surcroit. Au hasard - et par seuls groupes de deux : animaux et biotope, molécules et gravitation, lune et océans, humains et idées, insectes et univers, etc...

Tout est dans tout.

Sortons alors de cette idée de mécaniques résonantes partout dans le cosmos et remettons nous à la place de l'individu monade, du créateur, ou de l'indispensable lecteur qui aide à faire exister ces lignes. 

De notre conscience propre donc, au sens d'une intellection humaine rationnelle, directement issue d'un esprit des listes - et de la logique formelle duale qui nous anime. Une fondation très simple donc, pour qui "s'introspecte" avec honnêteé et lucidité.

Ici l'auteur de ces lignes précise qu'il y a, à tous les plans de la vie non minérale incarnée, un mécanisme incontournable qui est celui de la survie, de la perpétuation. Un mécanisme "qui pousse" et qui, pour FLP, est sous-tendu depuis peu (à l'échelle cosmique) particulièrement chez les eucaryotes, par la dualité mâle-femelle. Avec les poncifs qui vont avec : procréation-curiosité, terre-ciel, conservation-exploration, etc... 

Mécanisme tétravalent, mais c'est une autre histoire.

Cette survie, de notre limitée perspective d'animaux humains, au-delà des infinies différences de vitesse citées plus tôt, présente divers stades-niveaux d'intensité et de résilience que nous dirons psycho-sociologiques : l'individu-monade, sa famille, la communauté... son pays... jusqu'à sa planète. 

Déclinés comme suit : 

- Survie immédiate, dans l'instant.

- Survie à moyen terme - comment se développer, s'intégrer, trouver un travail, un/une partenaire... 

- Survie dans le temps - comment procréer, fonder une, ou plusieurs, famille(s). Construire une carrière pour y aider.

- Survie communautaire ou territoriale - comme n'importe quelle nation agressée qui se défend... ou un peuple juif qui veut se maintenire au travers des pays et des âges.

- Survie grégaire - par exemple de terriens menacés par de vilains ET's dans un mauvais scénario de SF. Ou plus simplement menacés par eux-mêmes de par le réchauffement climatique qu'ils ont induit. 

Humano-terriens qui malgré celà continuent leur expansion démographique et consumériste. Grr

Quant à la survie du processus Gaïa lui-même, ayons l'humilité de reconnaitre que c'est une problématique qui nous dépasse. En attendant de rencontrer les entités qui se sont amusées à nous créer (pour voir ?)... et ouvrir un peu nos perspectives ;-)

En résumé, pour reprendre l'objet de départ de ce texte, la caractérisation du terme "conscience", on s'aperçoit que comme tout principe terminologique arrêté, ce mot se révèle plurivoque, jusqu'à devenir UNIVERS (classe d'universalité des mathématiciens-physiciens ?) dès qu'on entreprend d'approfondir-préciser son analyse sémantique. Univers avec donc une infinité de niveaux et de vitesses imbriquées, ou pas, parallèles, ou pas... C'est à dire tout en même temps connexionniste, bayésien, perspectiviste, diachronique, systémique, cybernétique, etc. 

Tout est dans tout. 

Encore.

Tout ceci allant très au-delà - par exemple - d'une méthode sémantico-noétique aristotélicienne de l'abstraction, limitation en elle-même.

La conscience est partout et nulle part. 

Elle est surtout un mot à la mode qui, sans le langage et surtout l'écriture, ressemble à une illusion. 

"L'être humain vivant semble n'être constitué que de matière et d'énergie. L'esprit n'est qu'une hypothèse." Isaac Asimov**

Auteur: Mg

Info: sept 2023. *Le carbone représente 0,5% des atomes dans la voie lactée. Le CO2, atome de carbone sous sa forme gazeuse, aussi nommé dioxyde de carbone, gaz carbonique ou anhydride carbonique est présent à 4% dans l'athmosphère terrestres. En janvier 2021, l'atmosphère terrestre comportait 415,13 ppmv (parties par million en volume) de CO2, soit 0,04153 %. Cette teneur était de 283,4 ppmv en 1839 d'après des carottes de glace prélevées dans l'Antarctique, soit une augmentation globale d'environ 46 % en 182 ans. **Épigraphe dans Isaac Asimov's Book of Science and Nature Quotations (1988), 214

[ anthropocentrisme ] [ hiérarchisation ] [ corps-esprit ] [ au coeur de FLP ] [ ontologie ] [ polysémie ]

 
Commentaires: 8
Ajouté à la BD par Le sous-projectionniste

épistémologie

Le premier chapitre de l’ouvrage montre que la période grecque est déterminante pour les développements ultérieurs de la connaissance, elle a posé certains principes fondamentaux qui seront discutés jusqu’à nos jours. En synthétisant les apports de penseurs grecs d’Héraclite et Parménide, de Socrate à Platon, Aristote et Épicure, Martine Bocquet pointe qu’à cette époque le signe (séméïon) est secondaire, il est considéré comme un signe de la nature que l’on peut interpréter (symptôme de maladies, foudre, etc.). Il s’oppose au mot qui, lui, repose sur une relation conventionnelle. Martine Bocquet montre qu’Aristote est important pour la sémiotique, de Deely en particulier. Réaffirmant l’importance du rapport sensible au monde, face à Platon, il a placé le séméïon au fondement de la connaissance et orienté ses recherches vers la relation comme catégorie discursive (pp. 33-45), notion qui sera au cœur des discussions des scoliastes.

Le chapitre deux montre l’évolution importante des notions de signe et de relation à la période latine médiévale et scolastique. Suivant l’étude de Deely, Martine Bocquet souligne le rôle d’Augustin d’Hippone. En traduisant le séméïon grec en signum, il a proposé la première formulation générale du signe qui subsume l’opposition entre nature et culture entre lesquelles il fonctionne comme une interface (p. 65, 68). Bien qu’elle demeure imparfaite, l’approche d’Augustin pose d’une part les fondements d’une théorie relationnelle de la connaissance ; d’autre part, en maintenant une distinction entre signe naturel (signum naturale, séméïon) et signe conventionnel (signum datum), elle ouvre sur une conception de la communication, tout à fait intéressante, engageant tous les êtres vivants (animaux, plantes) (p. 67, 69). D’une autre façon, la problématisation de la relation apparaît tout aussi importante à cette période. En distinguant, chez Aristote, la relatio secundum dici (relation transcendantale) — relation exprimée par le discours — et la relatio secundum esse (relation ontologique) — relation en tant qu’entité particulière (p. 70) — Boèce permet de concevoir l’existence de relations ontologiques, indépendantes de la pensée (p. 73) — fondamentales chez Poinsot, Peirce et Deely. Cette distinction aura son incidence puisqu’elle posera les termes de la querelle des universaux, tournant épistémologique majeur de l’histoire des connaissances.

Initiée par Pierre Abélard, la "querelle des universaux" est abordée par Martine Bocquet au chapitre trois et apparaît comme le point pivot de l’ouvrage (pp. 107-112) dans la mesure où elle aura une incidence sur le rapport au monde et à la connaissance. La dispute, qui porte sur la nature de l’objectivité et du statut de réalité des entités dépendantes ou non de la pensée, par le biais de la catégorie aristotélicienne de relation, et, par extension, de celle de signe, oppose les réalistes aux nominalistes.

Les penseurs dits "réalistes", parmi lesquels Thomas d’Aquin, Roger Bacon, Duns Scot, considèrent que le signe est constitué d’une relation indépendante de la pensée, dite ontologique, à la nature. Le traitement de Martine Bocquet montre clairement que Deely se retrouve dans la pensée de ces auteurs, dont il a avant tout souligné la contribution à la sémiotique de Peirce : (i) le signe subsume l’activité cognitive (pp. 80-81) (ii) la relation de signe est dans tous les cas triadique (p. 82), (iii) les signes se constituent de manière dynamique, ce qui leur permet d’agir (sémiosis) et de jouer un rôle dans l’expérience et la connaissance (pp. 83-86).

Martine Bocquet met particulièrement en évidence la pensée de Jean Poinsot (Jean de St-Thomas), en soulignant son influence sur Deely. L’originalité de ce dernier est d’avoir considéré Poinsot comme le précurseur d’une sémiotique voisine de celle de Peirce, plus ontologique encore. Pour le résumer en quelques points, Poinsot défend avant tout que la nature et la réalité du signe sont ontologiques (secundum esse), c’est-à-dire que le signe est une relation dont le véhicule est indifférent à ce qu’il communique (p. 102). Ce point est essentiel car il permet de doter le signe d’une nature proprement relationnelle : (i) il pointe vers autre chose (une autre réalité physique ou psychique), (ii) il permet d’articuler la subjectivité et l’intersubjectivité et (iii) opère la médiation entre les choses (indépendantes de la pensée) et les objets (dépendants de la pensée) (pp. 105-106) ; ce que la représentation, où l’objet pointe vers lui-même, n’autorise pas. Le point de vue de Poinsot est déterminant, car les nombreux retours vers sa pensée réalisés tout au long de l’ouvrage, montrent que c’est au prisme de ces principes que Deely réévaluait les pensées modernes.

De l’autre côté, les "nominalistes" comme Guillaume d’Ockham considèrent que la réalité est extra mentale, que seules les causes externes sont réelles, et qu’en conséquence, les relations intersubjectives n’existent que dans la pensée. Malgré l’intervention des successeurs d’Ockham qui, contrairement à celui-ci, admettront le signe, divisé en deux entités — signes instrumentaux (physiques, accessibles aux sens) et signes formels (concepts) — à partir de 1400 environ, les concepts (signes formels) seront considérés comme des représentations (p. 91). Martine Bocquet montre bien que le principe nominaliste, souvent simplifié, sera largement adopté par les sciences empiriques qu’il permettra de développer, mais cela, et c’est l’enjeu de la démarche de Deely, au détriment du rapport entre le monde et les sens.

Dans le quatrième chapitre consacré à la modernité, Martine Bocquet montre comment Deely a pointé les problèmes et les limites posés par l’héritage du nominalisme, en mettant notamment en perspective les travaux des empiristes (John Locke, David Hume), puis ceux de Kant, avec les propositions de Poinsot. Elle montre d’emblée que le rationalisme de Descartes, où la raison est indépendante et supérieure à la perception, conduira à renégocier la place de la perception dans la connaissance. En concevant les qualités des sens comme des images mentales, les modernes renversent l’ordre de la perception sensorielle reconnu par les scoliastes, les qualités sensorielles (couleurs, odeurs, sons) autrefois premières sont reléguées au second plan (p. 117). Les empiristes (John Locke, George Berkeley, David Hume) contribueront à considérer l’ensemble des sensations comme des images mentales, ils ne seront alors plus capables de s’extraire de la subjectivité (p. 121-124). À ce titre, Martine Bocquet porte à notre attention que Deely avait bien montré que l’empirisme et le rationalisme éludaient la description du phénomène de cognition.

L’approche de Kant apparaît dans l’ouvrage comme point culminant, ou synthèse, de la pensée moderne. En suivant les pas de Deely, Martine Bocquet prend le soin de mettre son travail en perspective avec la pensée de Poinsot, ce qui permet de réaffirmer sa pertinence dans le projet sémiotique de Deely. Kant a eu le mérite d’envisager des relations objectives. Toutefois, en limitant la cognition aux représentations, il la sépare de la signification, c’est-à-dire du supplément de sens contenu dans l’objectivité (au sens de Poinsot), et se coupe de l’expérience de l’environnement sensible qui permet à l’homme de connaître et de constituer le monde (pp. 130-131). Martine Bocquet insiste sur le fait que, selon Deely, la pensée kantienne est lourde de conséquences puisqu’en inversant les concepts d’objectivité et de subjectivité, elle enferme l’individu dans sa propre pensée (p. 134), reléguant la communication au rang d’illusion.

Le dernier chapitre de l’ouvrage est consacré aux chercheurs post-modernes, qui ont marqué la fin du modernisme et opéré un retour vers le signe. On y trouve notamment les apports d’Hegel et de Darwin, entre autres, qui ont permis d’affirmer le rôle concret de la relation ontologique dans la cognition, et la prise des facultés cognitives avec l’environnement physique. Martine Bocquet consacre une grande partie du chapitre à la sémiotique en tant que discipline, ce qui lui permet de réaffirmer l’ancrage de Deely dans l’héritage peircien qui est ici clairement distingué des modèles de Saussure et Eco.

Martine Bocquet rappelle d’abord que la pensée de Peirce s’inspire des réalistes (d’Aquin, Duns Scot) et considère donc que les produits de la pensée sont bien réels, et non de simples constructions des sens. La sémiotique qu’il développe appréhende la signification comme un parcours de pensée dynamique entre expérience et cognition. Dans son modèle ternaire, présenté en détail, la relation de tiercité caractérise le fonctionnement de la cognition humaine depuis la perception d’indices jusqu’à la constitution d’un système de signification ; elle est propre à l’homme qui peut se référer à la réalité mais aussi évoquer des choses imaginées (p. 146). L’intérêt de ce modèle est de permettre d’envisager que les non-humains utilisent aussi des signes, possibilité envisagée par Peirce dans sa « grande vision », doctrine qui selon Bocquet fascine Deely. Ce projet consistait à étendre la sémiotique au vivant, considérant que l’action des signes est enracinée dans toutes les choses du monde. Il ouvre sur un vaste champ de recherche abordé en conclusion, sur lequel nous reviendrons.

Contrairement à la sémiotique peircienne, Bocquet montre que John Deely considère que la sémiologie de Saussure, reposant sur le signe linguistique, est limitée car elle ne s’occupe que des signes conventionnels, culturels. De ce fait, elle se montre non seulement incapable d’approcher le signe naturel mais elle court aussi le risque de faire de la réalité une construction de l’esprit (idéalisme). En dépit d’un substrat peircien partagé, la même critique sera adressée à la théorie des codes d’Eco puis, plus loin dans la conclusion de Martine Bocquet (pp. 171-172), au structuralisme (Greimas, Lévi-Strauss). En somme, ces sémiotiques sont très efficaces pour étudier les systèmes de signes spécifiquement humains, mais, enfermées dans le langage et la culture, elles sont incapables de traiter les signes naturels, toute tentative révèle leur idéalisme. À cet endroit, l’auteure met bien en évidence l’opposition irréductible entre, d’un côté, ces théories qui ne rendent compte ni du signe naturel ni de la reconnaissance des phénomènes de la nature, et de l’autre, la posture de Deely qui défend l’idée que les données des sens ne sont jamais déconnectées et que la perception comprend une structure d’objectivité car les relations sont réelles (p. 165). Finalement, au travers de l’ouvrage, Bocquet montre que Deely prônait un retour à l’universalité du signe.

La conclusion du livre indique que Deely plaçait le signe et la sémiotique au cœur d’une pensée postmoderne capable de rétablir le dialogue entre les sciences dures et les sciences de la communication. Ce dialogue répondrait à la nécessité de comprendre l’action des signes autant dans la nature que dans la culture. Pour concrétiser cela, Deely propose un retour au réalisme oublié des scoliastes latins pour réviser les théories des modernes afin de renouer le lien avec la nature, en tenant compte des entités dépendantes et indépendantes de la pensée (p. 168).

Cette posture s’inscrirait, selon Martine Bocquet, dans un projet sémioéthique au sein duquel l’homme prendrait conscience de ses responsabilités vis-à-vis de la nature. Finalement, la solution à adopter correspond à la "grande vision" de Peirce, introduite en amont, c’est-à-dire une doctrine des signes qui, d’une part, intègre l’ensemble de la connaissance humaine du sensoriel aux interactions sociales et à la culture et, d’autre part, étend la sémiotique à l’ensemble du monde vivant, considéré comme un réseau de significations entre humains et non-humains, et noué sur une relation ontologique présente dans toute chose (pp. 169-170). Mis en application dans les années 1960, ce projet a donné lieu à un ensemble de sémiotiques spécifiques étudiant aussi bien le vivant, comme la physiosémiotique, la phytosémiotique, la zoosémiotique, la biosémiotique, que l’homme avec l’anthroposémiotique. Nous soulignons que certaines de ces disciplines sont aujourd’hui émergentes pour répondre aux questions environnementales actuelles en termes de climat, de cohabitation entre espèces et d’habitabilité du monde.

La restitution des travaux de Deely par Martine Bocquet semble tout à fait pertinente pour les sciences de la communication. Tout d’abord, parce que la démarche historique de Deely invitant à réévaluer nos acquis au prisme de modèles plus anciens, parfois moins connus, est tout à fait d’actualité et nécessaire dans notre réseau de recherche pluridisciplinaire. Ensuite, du fait de la structure détaillée du livre de Martine Bocquet qui permettra autant aux étudiants qu’aux chercheurs de trouver une formulation des concepts et des problèmes qui sous-tendent encore le domaine de la communication.

D’autre part, le grand intérêt de l’ouvrage réside dans le parti pris épistémologique de la sémiotique de Deely. En adoptant la relation ontologique de Poinsot, présente en creux chez Peirce, Deely ouvre des perspectives importantes pour le champ des sciences de la communication puisqu’il attire notre attention sur un concept universel de signe capable de réaffirmer la place du sensible dans la communication et de problématiser les interactions entre humains et non-humains. À ce titre, la pensée de Deely rapportée par Martine Bocquet est tout à fait en phase avec la recherche de ces quinze dernières années où différentes disciplines ont cherché à étudier la signification au-delà des particularités entre humains mais aussi entre êtres vivants, soit en adoptant un point de vue ontologique soit en intégrant les sciences physiques ou cognitives. Citons par exemple la biosémiotique, la zoosémiotique mais aussi l’anthropologie de la nature de Philippe Descola, "l’anthropologie au-delà de l’humain" d’Eduardo Kohn, la sémiophysique de René Thom et Jean Petitot ou encore la sémiotique cognitive.

Auteur: Chatenet Ludovic

Info: résumé critique de : Martine Bocquet, Sur les traces du signe avec John Deely : une histoire de la sémiotique Limoges, Éditions Lambert Lucas, 2019, 200 p.

[ panorama sémiologique ] [ anthropocentrisme ] [ xénolinguistique ] [ philologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel