Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 59
Temps de recherche: 0.0494s

moderne-antique

Si le cogito, dans l’histoire de la philosophie, est une base, pourquoi ? C’est que, pour le dire assurément au minimum, il substitue au rapport pathétique, au rapport difficile qui avait fait toute la tradition de l’interrogation philosophique, qui n’était autre que celle du rapport du penser à l’être.

Allez ouvrir, non pas à travers les commentateurs mais directement… bien sûr, ce sera pour vous plus facile si vous savez le grec, si vous ne le savez pas il y a de bonnes traductions, des commentaires très suffisants en langue anglaise, de la Métaphysique d’ARISTOTE. Il y a une traduction française, qui est celle de TRICOT, qui à la vérité n’est pas sans y apporter le voile et le masque d’un perpétuel commentaire thomiste.

Mais pour autant qu’à travers ces déformations vous pourrez essayer de rejoindre le mouvement originel de ce qu’ARISTOTE nous communique, vous vous apercevrez combien, mais après coup, tout ce qui a pu s’accumuler de critiques ou d’exégèses autour de ce texte… dont tel ou tel scoliaste nous dit que tel passage est discutable, ou que l’ordre des livres a été bouleversé …combien, pour une lecture première, toutes ces questions apparaissent vraiment secondaires auprès de je ne sais quoi de direct et de frais, qui fait de cette lecture, à cette seule condition que vous la sortiez de l’atmosphère de l’école, une chose qui vous frappe du registre de ce que j’ai appelé tout à l’heure le "pathétique".

Quand vous verrez à tout instant se renouveler et rejaillir, dans quelque chose qui semble encore porter la trace du discours-même où il s’est formulé, cette interrogation de ce qu’il en est du rapport de la pensée et de l’être. Et quand vous verrez surgir tel terme, comme celui de τὸ σεμνὸν [to semnon], ce qu’il y a de digne, la dignité, celle qui est à préserver du "penser" au regard de ce qui doit la rendre à la hauteur de ce qu’il en est de ce que l’on veut saisir, à savoir : ce n’est pas seulement "l’étant" ou "ce qui est" mais ce par où l’être s’y manifeste.

Auteur: Lacan Jacques

Info: 11 janvier 1967, La logique du fantasme

[ comparaison ] [ ontologie ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

intégration

(Ur, En allemand préfixe permettant l'accentuation ou l'exagération d'un mot)

En théorie des ensembles, un ur-element (ou urelement) est quelque chose qui n'est pas un ensemble mais qui peut être élément d'un ensemble.

Ils partagent ainsi avec le seul ensemble vide le fait de ne posséder aucun élément, mais pour des raisons tout à fait différentes : rien ne peut appartenir à un ur-element parce que cela n'a pas de sens, alors que rien n'appartient à l'ensemble vide par définition.

Les ur-elements sont aussi appelés atomesindividuséléments primitifs ....

La théorie des ensembles moderne a pu montrer que, pour développer l'ensemble des mathématiques, on pouvait complètement se passer d'atomes. Tous les ensembles utiles peuvent être construits à partir de l'abstraction mathématique qu'est l'ensemble vide. 

Néanmoins les théories des ensembles avec ur-elements gardent leur intérêt, pour des théories des ensembles faibles, ou tout simplement parce qu'elles peuvent apparaître plus naturelles au prime abord. De façon imagée, si on veut prouver que tout homme résidant à Paris réside en France, on va utiliser les propriétés de la relation d'inclusion telles qu'elles sont définies en théorie des ensembles. Pourtant, on ne va pas affirmer pour le prouver que tel homme (ur-element) qui vit à Paris donc en France est construit à partir de l'ensemble vide.

Adjoindre à l'ontologie ensembliste des objets qui ne sont pas des ensembles permet d'étendre son application à d'autres domaines. Mais il faut bien sûr formellement s'assurer que les théorèmes acquis sur les seuls ensembles peuvent s'exporter hors de ce domaine. D'où l'intérêt d'une théorie des ensembles avec ur-elements qui peut le garantir formellement.

Syntaxiquement, leur introduction consiste à enrichir le langage ensembliste (ne comprenant que les symboles de relation binaire d'appartenance et d'égalité) de constantes d'individus.

Les quantifications présentes dans les axiomes de la théorie des ensembles sont alors généralement relativisées aux seuls ensembles et ne s'appliquent pas aux ur-elements.

Dans des axiomatiques comme la théorie des ensembles typée, les objets de type 0, ou atomes, peuvent être considérés comme des ur-elements.

Résultats

L'adjonction d'ur-elements au système des New Foundations de  Quine (NF), a des conséquences surprenantes. En particulier, alors que l'on ne sait pas si la théorie NF est cohérente (relativement à ZFC et ses extensions), la théorie NF avec Ur-elements, notée NFU, se révèle cohérente relativement à l'arithmétique de Peano : une théorie bien plus faible que ZFC. De plus NFU plus l'axiome du choix est cohérente relativement à NFU, alors que NF démontre la négation de l'axiome du choix !

Auteur: Internet

Info: https://fr.wikipedia.org/wiki/Ur-element

[ composant singulier ] [ corps étranger ]

 

Commentaires: 0

Ajouté à la BD par miguel

ontologie linguistique

En 1867, Charles Sanders Peirce, alors âgé de vingt-huit ans, publie On a New List of Categories (1.545-1.559). Dans ce texte étonnant, il esquisse le fondement métaphysique d'une philosophique séméiotique et il entreprend l'élaboration d'une définition et d'une classification scientifique des signes. Le texte commence par une étude de la substance et de l'être et Peirce y formule l'hypothèse de l'existence des trois catégories fondamentales de l'être, qu'il nommera ultérieurement Priméité, Secondéité et Tiercéité, et grâce auxquelles il définit le representamen.

Un representamen est une relation triadique dans laquelle un fondement est relié à un objet par le biais d'un interprétant. La définition peircéenne du representamen est intentionnellement formelle et générale. Peirce prétendait alors que la sémiotique était une science de base et qu'elle constituait le fondement de la logique, de la psychologie et de la sociologie. Dans ses écrits ultérieurs, il a indiqué qu'il préférait utiliser le mot "signe" pour désigner les representamen dont la pensée et l'action humaines sont les interprétants. Comme il existe trois types de representamen ou de relations-signe, il s'ensuit qu'il existe trois sciences séméiotiques subsidiaires. Premièrement la grammaire formelle qui est l'étude des fondements des signes étudié en eux-mêmes et indépendamment de leurs relations avec leurs objets ou leurs interprétants. Deuxièmement la logique ou critique qui est l'étude de la relation des signes à leurs objets. Troisièmement la rhétorique formelle qui est l'étude de la relation des signes et de leurs interprétants.

Peirce a repris ces termes à la philosophie grecque et à la philosophie médiévale, mais il est évident qu'il a anticipé sur la syntaxe, la sémantique et la pragmatique. C'est également dans cet article de 1867 que Peirce a introduit la tripartition des signes en "indice", "icône" et "symbole". Il tient la séméiotique pour une science première par rapport à la logique et il considère qu'elle constitue une base pour la logique des termes, des propositions et des arguments. La séméiotique fonde également les trois formes de raisonnement qu'on utilise dans les sciences : hypothèse, déduction et induction. A la même époque que cet article sur les catégories, Peirce a écrit et publié toute une série d'articles particulièrement brillants dans lesquels il a développé sa théorie de manière plus détaillée, et dégagé plus complètement ses applications à l'étude de la logique, de l'histoire et de la méthodologie des sciences.

Il a également appliqué cette séméiotique à la psychologie et à la théorie des sociétés. L'homme est un signe. En fait l'homme est un signe extérieur, un signe dans le monde. Le corps de l'homme et ses actions constituent le médium matériel de l'homme-signe, tout comme l'encre et les sons constituent le médium matériel du langage. Les sensations et les émotions sont des "mots constitutionnels" (2.426, 5.291). Pendant les six années qui suivirent, Peirce en vint à penser que l'homme est un dialogue de signes, dans lequel le doute pose les questions tandis que les actions et les croyances sont les interprétants. Ces croyances et ces actions seront ultérieurement traduites en une conversation avec la société des signes. Peirce a esquissé une théorie de l'éthique dans laquelle ce sont des normes séméiotiques qui régissent la communauté en expansion où cette conversation a lieu.

Auteur: Savan David

Info: La séméiotique de Charles S. Peirce. https://www.persee.fr/doc/lgge_0458-726x_1980_num_14_58_1844. Les références entre parenthèses qui suivent les citations renvoient au volume et au numéro de paragraphe des Collected Papers de Peirce, sélectionnés et présentés par Paul Weiss et Charles Hartsone, et publiés par Harvard University Press en 8 volumes, 1932- 1954. Trad : F. Peraldi

[ communication ] [ pouvoir sémantique ] [ sémiotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie

Cet avènement de l'ego s'accompagne de nos jours, de manière lancinante et généralisée dans la psyché de nos contemporains, du sentiment que pour exister il est indispensable de faire quelque chose de notable, et si possible d’y exceller. Exister: ex - sistere. Se tenir debout hors de soi, à l'extérieur, pour l'extérieur. Jean-Paul Sartre, dans "Les mots", raconte que petit garçon il considérait, fasciné, dans la bibliothèque de son grand-père, les énormes volumes au dos desquels figurait un nom - celui de l'auteur. Il avoue avoir décidé alors, plus ou moins in petto, qu'un jour un ou plusieurs volumes semblables porteraient également un nom: le sien.

Quel sens tout ceci peut-il bien avoir? Platon a-t-il écrit le Phédon, la République et les Lois pour que figure sur la tranche de leur édition son nom? Jean-Sébastien Bach écrivait-il ses cantates et passions pour que l'on parle de lui? Bouddha a-t-il dispensé son enseignement pour que sa renommée s'étende au monde entier et que l'on ait son nom constamment à l'esprit? Soyons sérieux: Bouddha, Bach et Platon, et avec eux tous les authentiques grands esprits n'ont produit ce qu'ils ont produit que parce qu'ils étaient habités profondément par un propos qui devait impérativement s'exprimer, propos qui ne tenait sa validité que d'être adressé à leurs semblables, dans l'urgence de transmettre une nourriture vitale au sein de ce qui s'établit en dernier ressort comme une co-institution intersubjective. La posture de Sartre, très symptomatique de la nécrose relationnelle moderne et contemporaine, ressortit à une économie relationnelle objectivante.

Que signifie le fait de vouloir accoler son nom au dos d'un in quarto, sans même qu'ait été mentionné le propos ou le titre de l'ouvrage? Rien d'autre que le fait de remettre à autrui le soin d'attester notre existence, si possible de manière positive, en se plaçant face à lui en situation d'objet: objet de son attention, objet de son admiration, objet de sa considération. Objet, position humiliante s'il en est, qui nous renvoie aux tout premiers moments infantiles de notre inscription dans le monde, lorsque nous étions l'objet des soins de nos parents, l'objet de leurs réprimandes (mauvais objet), l'objet de leurs encouragements (bon objet). L'objet.

Or nous n'avons pas vocation à en rester à ce stade immature et matriciel, certes condition incontournable de notre incarnation et croissance en ce monde. Nous sommes appelés à devenir ce que nous sommes fondamentalement: des sujets. Or, objet et sujet sont des catégories qui s'excluent mutuellement. Il faut donc choisir entre la tentation objectivante et l'appel subjectivant, qui, lorsque le problème n'est pas posé dans les termes adéquats nous soumettent à des forces de marées qui nous écartèlent littéralement. La vieille antienne du Diable 6 , que l'on retrouve notamment dans les trois tentations du Christ au désert (Marc 1 12-13; Matthieu 4 1-11; Luc 4 1-13) est sans surprise, avec une répétitivité qui en devient lassante et en fait un horizon anthropologique universel, celle-là: vivre dans le regard - si possible admiratif - d'autrui, comme objet, donc, et non en soi-même, comme sujet.

En nous proposant l'exaltation extériorisée de notre personne - qui repose au passage sur l'abaissement et l'instrumentalisation de celle des autres (plus grand que, plus petit que, superstructure de toute perversion...), le Diable se moque de nous, et c'est sur la toile de fond de son rire que nous consentons à abdiquer le sujet qui est en nous et qui nous constitue de la manière la plus éminente, pour nous abaisser au statut d'objet. Consentir à ce statut n'est pas seulement offenser la part la plus éminente de nous-même, c'est également se servir d'autrui et de son regard, en l'instrumentalisant à notre profit, puisqu'il n'est là que pour nous servir à nous rassurer sur notre existence (d'objet) et sa validité. Ainsi se placer soi-même en position d'objet conduit mécaniquement à instrumentaliser autrui, soit donc le transformer lui-même en objet, loin de l'impératif pratique préconisé par Kant: "Agis de telle sorte que tu traites l'humanité comme une fin, et jamais simplement comme un moyen". La phrase plus correcte, moins contaminée par les tendances essentialistes héritées de la Révolution française et de l'esprit du temps serait d'ailleurs: "Agis de telle sorte que tu traites ton prochain - ou ton semblable - comme une fin, et jamais simplement comme un moyen".

A rebours, lorsque l'on consent à établir ses quartiers sur la rive subjectale, de l'autre côté du Styx, toute parole que l'on profère, tout écrit que l'on produit, toute action que l'on pose, visent à aider ces autres nous-mêmes, autres sujets en devenir, à parvenir à la complétude de leur être. Ce qui compte dès lors n'est pas tant ce que l'on est que ce que l'on dit, écrit ou pose, en vertu du fait qu'on ne cherche plus qu'à servir cette vie merveilleuse qui nous traverse et qu'il importe tant de donner. On se fait alors cuisinier, afin, tant bien que mal, de contribuer à nourrir ceux qui ont faim, avec les moyens dont on dispose. Vivre, c'est aimer. Et, comme disait Victor Hugo, "aimer, c'est agir".

Auteur: Farago Pierre

Info: Une proposition pour l'autisme

[ ontologie individuelle ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

cognition

Lorsqu'on réfléchit à une idée-concept c'est toujours à postériori. 

Pas tout à fait ici, puisque nous désirons aborder et tenter de caractériser le terme "conscience". Vu bien sûr "à partir de", l'entendement humain. 

Conscience humaine, ici notion-idée tant grégaire-objective, qu'individuelle-subjective, qui serait, selon nous autres singes dépoilés, la plus complexe et la plus évoluée à ce jour. 

Ah ah ah, c'te bonne blague. 

Soit. 

Selon FLP l'entendement humain est principalement scriptural, c'est à dire qu'il a pu se développer "un cran plus loin, ou plus" grâce aux symboles et langages, puis à l'écriture de signes organisés, bientôt stockés sur supports externes, ceci amenant l'émersion-développement d'une culture grégaire (dictionnaires, traductions, mathématiques, spécialisations théologico-scientifiques, recensement des tactiques militaro-politico-économiques, littérature, philos, intellectualisme, chatgpt, etc). Tout ceci maintenant traduit et trans-frontières, accessible à tous, planétarisé... numérisé... Avec une tendance à s'orienter vers l'image ; mais c'est une autre histoire.

Il y a donc un grand corpus-intellect humain, constitué au fil des générations par des millions de singularités qui bougent, agissent... réfléchissent, échangent, et manipulent les idées, principalement écrites donc. 

Corpus qui résulte de notre interaction avec la réalité (priméité), interaction qui génère par rétroaction, grâce à des idiomes qui codifient-définissent-organisent, nos divers points de vue,  (codés par des mots pour faire simple) sur ce réel. Un corpus suffisamment vaste, riche et varié pour que chaque subjectivité puisse s'y épanouir, y exister... se définir elle-même. Et s'y perdre. Aussi.

La preuve ici-même ?

C.S. Pierce dirait quelque chose comme ; humains-secondéités qui, au contact de leur réel-priméité, génèrent des textes, pensées-écrits, qui sont des tiercités. 

Ainsi l'IA matérialisée par chatgpt et consorts ne fait que manipuler ces humaines tiercités. Autant dire que par rapport aux développements divers de la vie bactérienne, et des combinaisons toujours plus complexes de molécules et de protéines qui s'en sont ensuivies, les langages humains font piteux. Pour l'instant.

Oublions ceci et réfléchissons selon la triade piercéenne, partant de l'idée que la priméité est au premier chef notre biotope terre-soleil, avec l'univers en arrière-plan. 

(Avec cette digression :  si la priméité est le soleil et la secondéité notre matrice Gaïa, cette dernière générerait alors des tiercités sous forme de vie organique et d'humains. Perspective éventuellement pessimiste dans la mesure où elle pourrait impliquer l'idée d'une terre-Gaïa terminus, à la surface de laquelle les humains ne seraient qu'éphémères et transitoires virus. Pourquoi pas.)

Mais restons sur cette triade initiale, qui peut être appréhendée comme purement mécanique, logique, voire simplement informationnelle récursive :

a) réalité source-priméité b) vie organique hommes-secondéité C) technologies écritures humaines-tiercité.  

Prenons maintenant un peu de recul en termes de temps et d'échelles, partant de ce que nous savons de plus basique pour ce qui concerne la vie "issue de la matière". A savoir à partir de la chimiosynthèse et surtout, de la photosynthèse. C'est à dire de l'interaction assez incroyable entre l'énergie solaire (photons) et certains atomes-molécules terrestres qui, par le truchement de l'anhydride de carbone*, en viennent à générer des chaines organiques, des végétaux, des animaux...  Et nous.  

Reprenons : l'idée-concept de départ à définir ici est celle de conscience, vue de, et rapportée à "l'entendement humain". ( Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. FLP, ne se refusant à aucune mégalomanie, s'attaque à l'esprit lui-même, sissi. D'autant qu'on dirait  que les paradoxes quantiques pointent vers cet impératif. Impératif qui pourra se résumer en une question : comment fonctionne l'observateur ?)

Ici se pose le vertige des limites que porte en lui le langage. Parce que ce dernier, usant de "symboles écrits", désignait/nommait originellement les éléments issus de notre réalité de "façon claire", un arbre est un arbre, une montagne est une montagne, etc... Langage aussi capable de désigner/nommer une abstraction généralisante comme "notre réel lui-même". Et qui, plus avant, est même apte à désigner l'observateur-générateur-manipulateur de l'idiome lui-même. Toi moi, nous autres humains lecteurs.

Puissance paradoxale d'une pensée symbolique suffisamment adroite pour se contempler en miroir d'elle-même via les jeux polysémiques et autres variés décalages signifiant-signifié.

Quel(s) terme(s) alors utiliser pour tenter d'approcher une définition de cette curieuse émergence auto-réfléxive en s'inspirant de l'interaction photosynthétique ?  médium, mécanisme, outil interactif, "quelque chose qui réfléchit"... intelligence... transmutation...  émergence...  interface pseudo rationnelle... pensée abstraite agissante ?... 

Quelques mots simples n'y suffiront pas, et, pour prendre un exemple, une AI totalisante comme chatgpt semble s'y perdre à l'identique, enfermée dans ce qu'il faut bien appeler un anthropisme limitatif. 

C'est ici que FLP, sous pilotage humain (ses participants-lecteurs inserteurs) pourra se positionner, via la conjonction-usage de plusieurs termes simultanés (verticaux, nuage de corrélats ?). Conjonction susceptible de mieux préciser-comprendre-communiquer tel ou tel mot ou situation. Ce qui pourrait bien aider à mieux définir-consolider certaines articulations de nos raisonnements. Mais aussi mieux approcher une image "rapportée" de la conscience humaine, en fonction de "contextes précis et délimités" - pour commencer. 

Fonction FLPique de dictionnaire intriqué - qui n'en n'est qu'à ses balbutiements - et qui s'amuse à sortir de la prison séquentielle du raisonnement écrit en ouvrant une réflexion qui s'arrête en un point, perpendiculaire en quelque sorte. Halte cogitation éventuellement aidée par ces termes-tags-étiquettes annexes, verticaux, ou en nuage. Listing annexe à tendance synonymique qui pourra se présenter comme suit pour ce texte même, éventuellement par ordre d'importance :

entendement

assimilation chlorophyllienne

gnose

méta-moteur

savoirs

mécanisme constructeur, etc.

Humaine-conscience-interface très limitée aussi, au sens où elle ne sert à peu près qu'à elle-même, femmes et hommes, enfermés encore et toujours dans une Culture communautaire trans-époque que nous qualifions volontiers de "solipsisme anthropique". 

Savoirs humains entassés-conjugués qui ressemblent donc à un genre de grande conscience désordonnée, pour laquelle des termes comme information, communication, virtualité, annales akashiques... quasi-esprit, savoirs compilés... Une fois bien mélangés-combinés, pourront faire l'affaire. Mais stop.

Intéressons-nous maintenant ici à la notion de vitesse, sans lâcher cette idée de comparer "comment nous pensons nous-mêmes" avec une photosynthèse qui opère à des échelles de l'ordre du millionnième de seconde et du millionnième de millimètre.  

Bonjour alors les infinités d'échelons et de déclinaisons de "consciences", ou de niveaux de réflexions qui pourront découler de cette idée ; enchevêtrés de surcroit. Au hasard - et par seuls groupes de deux : animaux et biotope, molécules et gravitation, lune et océans, humains et idées, insectes et univers, etc...

Tout est dans tout.

Sortons alors de cette idée de mécaniques résonantes partout dans le cosmos et remettons nous à la place de l'individu monade, du créateur, ou de l'indispensable lecteur qui aide à faire exister ces lignes. 

De notre conscience propre donc, au sens d'une intellection humaine rationnelle, directement issue d'un esprit des listes - et de la logique formelle duale qui nous anime. Une fondation très simple donc, pour qui "s'introspecte" avec honnêteé et lucidité.

Ici l'auteur de ces lignes précise qu'il y a, à tous les plans de la vie non minérale incarnée, un mécanisme incontournable qui est celui de la survie, de la perpétuation. Un mécanisme "qui pousse" et qui, pour FLP, est sous-tendu depuis peu (à l'échelle cosmique) particulièrement chez les eucaryotes, par la dualité mâle-femelle. Avec les poncifs qui vont avec : procréation-curiosité, terre-ciel, conservation-exploration, etc... 

Mécanisme tétravalent, mais c'est une autre histoire.

Cette survie, de notre limitée perspective d'animaux humains, au-delà des infinies différences de vitesse citées plus tôt, présente divers stades-niveaux d'intensité et de résilience que nous dirons psycho-sociologiques : l'individu-monade, sa famille, la communauté... son pays... jusqu'à sa planète. 

Déclinés comme suit : 

- Survie immédiate, dans l'instant.

- Survie à moyen terme - comment se développer, s'intégrer, trouver un travail, un/une partenaire... 

- Survie dans le temps - comment procréer, fonder une, ou plusieurs, famille(s). Construire une carrière pour y aider.

- Survie communautaire ou territoriale - comme n'importe quelle nation agressée qui se défend... ou un peuple juif qui veut se maintenire au travers des pays et des âges.

- Survie grégaire - par exemple de terriens menacés par de vilains ET's dans un mauvais scénario de SF. Ou plus simplement menacés par eux-mêmes de par le réchauffement climatique qu'ils ont induit. 

Humano-terriens qui malgré celà continuent leur expansion démographique et consumériste. Grr

Quant à la survie du processus Gaïa lui-même, ayons l'humilité de reconnaitre que c'est une problématique qui nous dépasse. En attendant de rencontrer les entités qui se sont amusées à nous créer (pour voir ?)... et ouvrir un peu nos perspectives ;-)

En résumé, pour reprendre l'objet de départ de ce texte, la caractérisation du terme "conscience", on s'aperçoit que comme tout principe terminologique arrêté, ce mot se révèle plurivoque, jusqu'à devenir UNIVERS (classe d'universalité des mathématiciens-physiciens ?) dès qu'on entreprend d'approfondir-préciser son analyse sémantique. Univers avec donc une infinité de niveaux et de vitesses imbriquées, ou pas, parallèles, ou pas... C'est à dire tout en même temps connexionniste, bayésien, perspectiviste, diachronique, systémique, cybernétique, etc. 

Tout est dans tout. 

Encore.

Tout ceci allant très au-delà - par exemple - d'une méthode sémantico-noétique aristotélicienne de l'abstraction, limitation en elle-même.

La conscience est partout et nulle part. 

Elle est surtout un mot à la mode qui, sans le langage et surtout l'écriture, ressemble à une illusion. 

"L'être humain vivant semble n'être constitué que de matière et d'énergie. L'esprit n'est qu'une hypothèse." Isaac Asimov**

Auteur: Mg

Info: sept 2023. *Le carbone représente 0,5% des atomes dans la voie lactée. Le CO2, atome de carbone sous sa forme gazeuse, aussi nommé dioxyde de carbone, gaz carbonique ou anhydride carbonique est présent à 4% dans l'athmosphère terrestres. En janvier 2021, l'atmosphère terrestre comportait 415,13 ppmv (parties par million en volume) de CO2, soit 0,04153 %. Cette teneur était de 283,4 ppmv en 1839 d'après des carottes de glace prélevées dans l'Antarctique, soit une augmentation globale d'environ 46 % en 182 ans. **Épigraphe dans Isaac Asimov's Book of Science and Nature Quotations (1988), 214

[ anthropocentrisme ] [ hiérarchisation ] [ corps-esprit ] [ au coeur de FLP ] [ ontologie ] [ polysémie ]

 
Commentaires: 8
Ajouté à la BD par Le sous-projectionniste

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel