Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 43
Temps de recherche: 0.0488s

corps-esprit

D’une manière générale, il faut bien le remarquer : sur les conditions effectives de la pensée, le Descartes de la maturité n’a guère pris position. […]

En tout cas, nous n’avons, en perspective cartésienne, aucune idée de ce que serait un processus de pensée – ne disons pas un raisonnement, mais un processus de pensée – qui ne serait lié à aucune condition cérébrale. En droit, la substance de la pensée et la substance pensante elle-même sont indépendantes du corps. En fait, le corps assiste toujours la pensée, avec la double dimension du support et du facteur de retardement, de l’auxilium et de l’impedimentum.

En somme, que peut penser l’âme sans le corps ? Si "sans le corps" veut dire : sans une implication expresse du corps dans le processus de pensée, et sans une représentation corporelle plus ou moins ressemblante de l’objet de la pensée, la réponse sera qu’elle peut penser quantité de choses. Si en revanche « sans le corps » veut dire : sans aucune affection d’origine corporelle, la réponse est que nous n’en savons rien, ce qui veut dire : peut-être rien. Et si, assurément, Descartes refuse de considérer la pensée comme une propriété émergente, il ne caractérise en même temps l’esprit comme "chose complète" que de manière très précautionneuse. Disons que l’esprit est chose complète (indépendante) par sa notion et non par son activité.

Si donc il faut reprendre la question du sens du "dualisme cartésien", on dira que ce dualisme est essentiellement fonctionnel. Là où ne règne et où ne peut être obtenue aucune espèce d’évidence empirique (de l’indépendance des opérations de l’esprit à l’égard du corps), on peut néanmoins parler d’une évidence conceptuelle qui se recommande par son utilité intellectuelle et pratique. […] la "distinction réelle" de l’esprit et du corps est destinée à faire respecter la différence entre les objets de la pensée : il n’y a pas à traiter les pensées comme des processus physiques ou de purs produits de processus physiques, ni à considérer les mouvements de la nature comme des réalisations d’intentions. […] Au contraire, la distinction cartésienne règle les manières de parler des choses, et elle permet à la pensée de prendre possession d’elle-même, ou des idées qui lui donnent forme, comme elle peut prendre possession des choses étendues : seule en effet la certitude que ces idées appartiennent originairement à l’esprit […] lui donne l’assurance de pouvoir aller au bout de ses propres opérations et d’atteindre à une perfection spécifique qui autrement relèvera du hasard.

Auteur: Kambouchner Denis

Info: La question Descartes, éditions Gallimard, 2023, pages 158 à 160

[ explication ] [ philosophie ] [ résumé ] [ méthode ]

 
Commentaires: 1
Ajouté à la BD par Coli Masson

évolutionisme

Ceci nous amène à nous interroger sur les raisons qui plaident en faveur de cette nouvelle théorie de la trans-mutation. Le commencement des choses se trouve nécessairement dans l'obscurité, au-delà des limites de la preuve, tout en restant à l'intérieur de celles de la conjecture ou de l'inférence analogique. Pourquoi ne pas s'en tenir à l'opinion habituelle, que toutes les espèces furent créées directement, et non indirectement, d'après leurs genres respectifs, tels que nous les voyons aujourd'hui, et cela d'une manière qui, dépassant notre entendement, renverra intuitivement au surnaturel ? Pourquoi cette recherche continuelle de "l'inaccessible et de l'obscur", ces efforts anxieux, surtout depuis quelques années, des naturalistes et des philosophes de diverses écoles et de diverses tendances, pour pénétrer ce que l'un d'eux appelle "le mystère des mystères", c'est-à-dire l'origine des espèces ? A cette question, en général, on peut trouver une réponse suffisante dans l'activité de l'intellect humain, "le désir délirant, mais divin, de savoir", stimulé comme il l'a été par son propre succès dans le dévoilement des lois et des processus de la nature inorganique, dans le fait que les principaux triomphes de notre époque en science physique ont consisté à tracer des liens là où aucun n'avait été identifié auparavant, à ramener des phénomènes hétérogènes à une cause ou à une origine commune, d'une manière tout à fait analogue à celle qui consiste à ramener des espèces supposées indépendantes à une origine ultime commune ; ainsi, et de diverses autres manières, à étendre largement et légitimement le domaine des causes secondaires. Il est certain que l'esprit scientifique d'une époque qui considère le système solaire comme issu d'une masse fluide commune en rotation, qui, par la recherche expérimentale, en est venu à considérer la lumière, la chaleur, l'électricité, le magnétisme, les affinités chimique et la puissance mécanique comme des variétés ou des formes dérivées et convertibles d'une seule force, plutôt que comme des espèces indépendantes, qui a réuni les types de matière dits élémentaires, tels que les métaux, dans des groupes apparentés, et qui a soulevé la question de savoir si les membres de ces groupes pouvaient être des espèces indépendantes, est en droit de s'attendre à ce qu'il en soit ainsi, et qui pose la question de savoir si les membres de chaque groupe ne sont pas de simples variétés d'une même espèce, tout en spéculant avec constance dans le sens d'une unité ultime de la matière, d'une sorte de prototype ou d'élément simple qui pourrait être pour les espèces ordinaires de matière ce que les protozoaires ou les cellules constitutives d'un organisme sont pour les espèces supérieures d'animaux et de plantes, on ne peut s'attendre à ce que l'esprit d'une telle époque laisse passer sans discussion l'ancienne croyance sur les espèces.

Auteur: Gray Asa

Info: Darwin on the Origin of Species", The Atlantic Monthly (juillet 1860),

[ historique ] [ tour d'horizon ] [ curiosité ] [ rationalisme monothéiste ] [ source unique ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

advaita

Au cours de cette même période de sa vie, Bohm continua également d'affiner son approche alternative de la physique quantique. En examinant plus attentivement la signification du potentiel quantique, il se rendit compte qu'il présentait un certain nombre de caractéristiques qui impliquaient une rupture encore plus radicale avec la pensée orthodoxe. L'une d'elles est l'importance de l'intégralité. La science classique avait toujours considéré l'état d'un système dans son ensemble comme le simple résultat de l'interaction de ses parties. Cependant, le potentiel quantique remettait en cause cette vision et indiquait que le comportement des parties était en fait organisé par le tout. Non seulement l'affirmation de Bohr selon laquelle les particules subatomiques ne sont pas des "choses" indépendantes, mais font partie d'un système indivisible, fut poussée plus loin, mais on suggéra même que la totalité était en quelque sorte la réalité la plus primaire. Il expliqua également comment les électrons dans les plasmas (et d'autres états spécialisés tels que la supraconductivité) pouvaient se comporter comme des ensembles interconnectés. Comme l'affirme Bohm, ces "électrons ne sont pas dispersés car, grâce à l'action du potentiel quantique, l'ensemble du système subit un mouvement coordonné qui ressemble davantage à une danse de ballet qu'à une foule de personnes non organisées". Il note une fois de plus qu'"une telle activité globale quantique est plus proche de l'unité du fonctionnement organisé des parties d'un être vivant que du type d'unité que l'on obtient en assemblant les pièces d'une machine."

Une caractéristique encore plus surprenante du potentiel quantique était ses implications au niveau de la localisation. Dans notre vie quotidienne, les choses ont des emplacements spécifiques, mais l'interprétation de la physique quantique par Bohm indiquait qu'à l'échelle subquantique, celle où le potentiel quantique opère, la notion d'emplacement n'existe plus. Tous les points de l'espace sont alors égaux à tous les autres points de l'espace, et il est inutile de parler d'une chose comme étant séparée d'une autre. Les physiciens appellent cette propriété "non-localité". Aspect non local du potentiel quantique qui a permis à Bohm d'expliquer la connexion entre des particules jumelles sans que celà viole l'interdiction faite par la relativité restreinte pour tout ce qui se déplace plus vite que la vitesse de la lumière. Pour illustrer comment, il propose l'analogie suivante : Imaginez un poisson qui nage dans un aquarium. Imaginez également que vous n'avez jamais vu de poisson ou d'aquarium auparavant et que votre seule connaissance à leur sujet provient de deux caméras de télévision, l'une dirigée vers l'avant de l'aquarium et l'autre vers son côté. Lorsque vous regardez les deux écrans de télévision, vous pouvez penser à tort que les poissons qui s'y trouvent sont des entités distinctes. Après tout, comme les caméras sont placées à des angles différents, chacune des images sera légèrement différente. Mais en continuant à regarder, vous finirez par réaliser qu'il existe une relation entre les deux poissons. Quand l'un se tourne, l'autre fait un tour légèrement différent mais correspondant. Quand l'un fait face à l'avant, l'autre fait face à l'arrière, et ainsi de suite. Si vous n'avez pas conscience de l'ampleur de la situation, vous pourriez conclure à tort que les poissons communiquent instantanément entre eux, mais ce n'est pas le cas. Il n'y a pas de communication parce qu'à un niveau plus profond de la réalité, la réalité de l'aquarium, les deux poissons sont en fait une seule et même chose. Selon Bohm, c'est précisément ce qui se passe entre des particules telles que les deux photons émis lors de la désintégration d'un atome de positronium. 


Auteur: Talbot Michael Coleman

Info: L'univers holographique

[ brahman ] [ biais dual ]

 

Commentaires: 0

Ajouté à la BD par miguel

métaphysique

Les idées très développées de Bohm sur la globalité sont les plus étonnantes de toutes. Parce que tout dans le cosmos est fait du tissu holographique sans couture de l'ordre implicite, il pense qu'il est aussi insensé de considérer l'univers comme composé de "parties" que de considérer les différents geysers d'une fontaine comme séparés de l'eau dont ils jaillissent. Un électron n'est pas une "particule élémentaire". "C'est juste un nom donné à un certain aspect de l'holomouvement. Diviser la réalité en parties et ensuite les nommer est toujours arbitraire, une convention, parce que les particules subatomiques, et tout le reste de l'univers, ne sont pas plus séparés les uns des autres que les différents motifs d'un tapis ouvragé. C'est une suggestion profonde. Dans sa théorie générale de la relativité, Einstein stupéfia le monde en affirmant que l'espace et le temps ne sont pas des entités distinctes, mais sont liés de manière fluide et font partie d'un ensemble plus vaste qu'il a appelé le continuum espace-temps. Bohm pousse cette idée un pas de géant plus loin. Il affirme que tout dans l'univers fait partie d'un continuum. Malgré l'apparente séparation des choses au plan analytique, tout est une extension sans faille de tout le reste, et en fin de compte, même les ordres implicite et explicite se fondent l'un dans l'autre. Prenez un moment pour considérer ceci. Regardez votre main. Maintenant, regardez la lumière qui s'écoule de la lampe à côté de vous. Et regardez le chien qui se repose à vos pieds. Vous n'êtes pas simplement faits des mêmes choses. Vous êtes la même chose. Une seule chose. Ininterrompue. Une chose énorme qui a déployé ses innombrables bras et appendices dans tous les objets apparents, atomes, océans agités et étoiles scintillantes du cosmos. Bohm prévient que cela ne signifie pas que l'univers soit une masse géante indifférenciée. Les choses peuvent faire partie d'un tout indivisible tout en possédant leurs propres qualités spécifiques. Pour illustrer ce qu'il veut dire, il évoque les petits tourbillons qui se forment souvent dans une rivière. À première vue, ces tourbillons semblent être des choses distinctes et possèdent de nombreuses caractéristiques individuelles telles que la taille, la vitesse et la direction de rotation, etc. Mais un examen attentif révèle qu'il est impossible de déterminer où un tourbillon donné se termine et où la rivière commence. Ainsi, Bohm ne suggère pas que les différences entre les "choses" soient dénuées de sens. Il veut simplement que nous soyons constamment conscients que la division des divers aspects de l'holo-mouvement en "parties" est toujours une abstraction, manière de faire ressortir ces aspects dans notre perception via nos manières de voir ou façons de penser. Pour tenter de corriger cela, au lieu d'appeler les différents aspects de l'holo mouvement "choses", il préfère les nommer "sous-totalités relativement indépendantes". 

En effet, Bohm pense que notre tendance quasi universelle à fragmenter le monde et à ignorer l'interconnexion dynamique de toutes les choses est responsable d'un grand nombre de nos problèmes, non seulement en science mais aussi dans nos vies et notre société. Par exemple, nous croyons que nous pouvons extraire les parties précieuses de la terre sans affecter l'ensemble. Nous croyons qu'il est possible de traiter certaines parties de notre corps sans se préoccuper de l'ensemble. Nous pensons qu'il est possible de traiter divers problèmes de nos communautés, tels que la criminalité, la pauvreté et la toxicomanie, sans se préoccuper des problèmes de notre société dans son ensemble, et ainsi de suite. Dans ses écrits, Bohm soutient avec passion que notre façon actuelle de fragmenter le monde en parties non seulement ne fonctionne pas, mais pourrait même conduire à notre extinction.

Auteur: Talbot Michael Coleman

Info: The Holographic Universe. L'intégralité indivise de toutes les choses

[ source indiscriminée ]

 

Commentaires: 0

Ajouté à la BD par miguel

transhumanisme

Les robots "surhumains" seront en mesure de dépasser les capacités de l'humanité d'ici un demi-siècle, avertit un expert en intelligence artificielle, soulignant qu'il est vital d'introduire des garanties afin d'éviter que l'humanité soit "remplacée".

Luca De Ambroggi, responsable de la recherche et de l'analyse des solutions d'IA au sein de l'équipe Transformative Technology d'IHS Markit, fournisseur mondial d'informations basé à Londres, a déclaré à Express.co.uk : "Dans 50 ans, il est raisonnable de penser que les robots seront capables de "soutenir" et de remplacer l'être humain dans plusieurs activités. Déjà, les appareils électromécaniques surpassent les humains en sensibilité et en temps de réaction." Compte tenu des progrès technologiques considérables réalisés au cours de la dernière décennie, M. Ambroggi a déclaré que 50 ans étaient "suffisants" pour combler plusieurs fossés avec l'être humain.

Et d'ajouter : – Même si notre cerveau aura encore des avantages et que les êtres humains resteront plus dynamiques et polyvalents, l'électronique pourra surpasser les humains dans plusieurs fonctions spécifiques. Comme elle le fait déjà aujourd'hui, de la vision industrielle, à la reconnaissance audio et vocale.

- La question à long terme est de savoir si les "personnes remplacées" pourront être requalifiées et continuer à apporter de la valeur ajoutée dans notre société. Il continue : "L'intelligence artificielle est là, et elle est là pour le long terme.

- Nous sommes dans l'ère dite étroite ou faible, de l'IA. Elle est "plus faible" que l'humain ou égale ou supérieure pour quelques tâches et sens limités. Quelle que soit la façon dont elle perturbe la société et son évolution, cela aura des répercussions majeures sur la sécurité des données, le travail et l'éthique.

- Cette ère est celle de l'IA multimodale générique, comparable à une intelligence humaine appliquée dans tous les sens et travaillant puissamment en parallèle. Par exemple, pour ce qui est de l'électronique de détection et du support des semi-conducteurs, pour les capacités de vision, d'écoute, de toucher, ainsi que d'odorat et de goût avec les dernières technologies MEMS.

- Nous devons revenir à l'éthique. Il est communément admis que l'intelligence artificielle et ses dispositifs/robots vont accroître le business et la richesse dans le monde entier. C'est encore une fois aux régulateurs et aux administrateurs de s'assurer que tous les humains en bénéficieront et pas quelques sociétés seulement.

Regardant plus loin, M. Ambroggi considère l'idée que les robots seront un jour considérés comme ayant une conscience, et donc comme des formes de vie indépendantes. Il explique : "Il est tout à fait possible que ce soit aussi une réalité, peut-être pas dans les 50 prochaines années, mais la technologie évolue si rapidement que je peux difficilement en douter."

"Lorsque nous étudions la biologie, un 'être vivant' doit avoir au moins une unité 'cellulaire' vivante. Jusqu'à présent, ce n'est pas le cas, mais il est clair que cela pourra l'être à l'avenir. L'intelligence humaine peut être améliorée avec un implant à puce IA, mais alors nous entrons dans de nouveaux domaines et devrons définir ce qui est et ce qui n'est pas un humanoïde hybride ?"

"Nous devrions aussi mentionner la conscience. Nous pouvons affirmer que la conscience même vient de l'expérience, comme on le voit dans le comportement humain qui est extrêmement différencié suivant les différentes parties du monde. Si c'est le cas, l'IA peut le faire et le fera, car l'expérience est reproductible."

- Le surhomme est la dernière étape, et j'ai peur d'utiliser ce mot "dernier". Mais c'est ce qui conduit la recherche pour l'avenir.

"Peu importe qui ou quoi sera au-dessus des capacités humaines. Avant cela, nous ferions mieux de nous assurer d'avoir en place de bonnes réglementations, méthodologies et processus éthiques afin de nous assurer de tirer profit du côté positif de la technologie."

Auteur: McGrath Ciaran

Info: Sun, 3 février 2019

[ prospective ]

 

Commentaires: 0

Ajouté à la BD par miguel

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

socio-psychologie

Sémio-capitalisme : le big data à la place du contact humain

Il est nécessaire de commencer à penser la relation entre le changement technologique en cours et les processus sociaux. Une subjectivité assujettie, reprise par les médias concentrés et par une configuration de câbles, d’intelligence artificielle, binarismes et algorithmes, obéit inconsciemment aux images et à une technologie digitale qui va par les réseaux, whatsapp, facebook, etc., en conditionnant les habitudes, perceptions, savoirs, choix et sensibilités. La subjectivité se communique de plus en plus par des machines et des suites d’algorithmes mathématiques et de moins en moins par la rencontre des corps. Ce changement techno-culturel inhibe, entre autres choses, la capacité à détecter la souffrance ou le plaisir de l’autre et l’affectation mutuelle des corps, une condition fondamentale de l’amour et de la politique.

Jean Baudrillard, dans "Simulacres et simulation", rappelle un conte de Borges sur une carte si détaillée, qu’il impliquait une exacte correspondance biunivoque avec le territoire. Se basant sur cette histoire, il souligne que dans la postmodernité la différence entre carte et territoire a été gommée, rendant impossible de les distinguer ; plutôt le territoire a cessé d’exister et est seulement restée la carte ou le modèle virtuel, les simulacres qui supplantent la réalité. Baudrillard affirme qu’avec la virtualité nous entrons dans l’ère de la liquidation du réel, de la référence et l’extermination de l’autre.

Bifo Berardi, en continuant sur les traces de Baudrillard, décrit dans "Phénoménologie de la fin" le néolibéralisme comme sémio-capitalisme, un mode de production dans lequel l’accumulation du capital est essentiellement faite au moyen de l’accumulation de signes : de biens immatériels. Il s’agit d’une sémiologie de la simulation basée sur la fin de la référence ; le signe linguistique s’est pleinement émancipé et cette abstraction s’est déplacée vers la science, la politique, l’art, les communications et tout le système d’échanges.

Le néolibéralisme, le capitalisme qui n’est déjà plus industriel mais financier, constitue le point le plus avancé de la virtualisation financière : l’argent peut être transformé en plus d’argent en sautant par-dessus la production de biens utiles. Le sémio-capitalisme se base sur le dé-territorialité de la production, l’échange virtuel et l’exploitation de l’âme comme force productive. À partir de cette organisation, les multinationales ont gagné une liberté absolue de pouvoir bouger facilement leurs actifs non matériels d’un endroit à l’autre, dans un monde dans lequel les automatismes financiers ont remplacé la décision politique et les États ont perdu en caractère effectif, en multipliant la misère, la précarité et le chômage. L’absolutisme capitaliste non régulé affirme son droit d’exercer un contrôle sans restriction sur nos vies, tandis qu’une épidémie d’angoisse se propage à travers la planète.

Dans une culture mondiale transformée en totalitarisme de la virtualité la postvérité joue son match : tout peut être dit et transformé en vérité irréfutable. Les messages ne valent pas par leur interprétation ou relation avec la vérité, mais par le pragmatisme ou le caractère effectif de signes vides qui touchent en plein la dimension affective. Nous constatons une subjectivité affaiblie dans le recours à la pensée, en vivant dans le temps anxieux du zapping et de l’urgence, qui se gère fondamentalement par des impulsions.

La sémiotisation néolibérale, avec la prédominance de l’échange de signes virtuels au nom du progrès, implique la soustraction du corps, ce qui constitue l’une des conséquences les plus inquiétantes que l’humanité peut connaître. Si on ne perçoit pas le corps, le cri, l’angoisse ou la souffrance de l’autre, il y a seulement un pas vers l’indifférence sociale, l’individualisme maximal et la destruction de la communauté réelle. Un corps social de chair et d’os affecté dans l’échange social est la condition fondamentale de la politisation, la construction du peuple et de l’émancipation.

Que faire ?

À la fin de son oeuvre, Berardi explique de manière énigmatique que seul Malinche peut répondre à ces questions. La Malinche, l’une des vingt femmes esclaves données aux Espagnols en 1519 par les habitants de Tabasco, a servi d’ interprète à Hernán Cortés, elle est devenue sa concubine et a mise au monde l’un des premiers métis. Cet acte a été interprété de diverses manières : une traîtresse, une victime ou une mère symbolique de la nouvelle culture métisse. Sans écarter aucune des trois lectures, bien ou mal, Malinche s’est ouvert à la langue de l’autre incompréhensible.

En assumant les transformations sémiotiques, impossibles à freiner, il s’agit de parier sur la possibilité d’affronter cette forme contemporaine de domination. En reprenant le mythe du métissage, il faudra inclure et mélanger les corps à côté des nouvelles technologies. Au lieu de la disjonction que le système néolibéral d’échanges pose entre corps et virtualité, il sera nécessaire de multiplier les espaces de production culturelle et de participation dans lesquels peuvent circuler pensées, affects et corps : des centres culturels, communication alternative, radios libres, blogs, canaux Youtube, etc. Il faudra réorganiser l’espace commun en essayant des formes de vie indépendantes de la domination du capital.

Dans l’ère du sémio-capitalisme néolibéral, la reconstruction des noeuds sociaux devient une forme de résistance et une tache majeure. Peut-être ceci constitue-t-il le défi politique le plus difficile.

Auteur: Merlin Nora

Info: Cronicon. Buenos Aires, 3 février, 2019. Traduit de l’espagnol pour El Correo dela Diaspora par Estelle et Carlos Debiasi

[ pouvoir sémantique ] [ déshumanisation ] [ libéralisme mémétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Domestication des chiens: le mystère de son origine enfin levé
Retracer précisément l'histoire de la domestication du chien est crucial pour la recherche fondamentale. Ce sujet nécessite une approche interdisciplinaire comme l'illustre une nouvelle étude internationale qui réunit des archéozoologues et des paleogénéticiens. Pilotés par une équipe de l'université d'Oxford en Angleterre, ces travaux ont mobilisé plusieurs laboratoires français.
"En savoir plus à ce sujet permet d'en savoir plus sur notre propre histoire ; car l'histoire du chien constitue une part de l'histoire de l'humanité", explique Anne Tresset, archéozoologue à Paris et coauteur de l'étude. En effet, d'une part, le chien présente la particularité d'être le premier à avoir été domestiqué par l'homme: "Il vit dans des sociétés humaines depuis la fin du Paléolithique supérieur, c'est-à-dire depuis au moins 15 000 ans. À titre de comparaison, la domestication des bovins, du mouton, de la chèvre et du porc n'a eu lieu, elle, que plusieurs millénaires après, au Néolithique, soit il y a 10 500 ans", précise notre contact. D'autre part, le chien a un statut très particulier: "Il est le meilleur ami de l'homme, et le fut sans doute dès l'origine. On a par exemple retrouvé des ossements de chiens aux côtés de défunts dans des tombes de la culture proche-orientale natoufienne, remontant à l'Épipaléolithique, donc à plus de 11 000 ans...", poursuit Anne Tresset.
Plus précisément, la nouvelle étude suggère que le chien dérive non pas d'une seule, mais de deux domestications indépendantes de loups: une, survenue en Europe il y a au moins 15 000 ans ; et l'autre, en Asie de l'Est, il y a au moins 12 500 ans. Puis entre le Ve et le IVe millénaire avant notre ère, des chiens d'Asie auraient migré vers l'Europe, sans doute en même temps que des populations humaines. Là, ils se seraient reproduits avec des chiens européens. Leurs descendants auraient ensuite peu à peu remplacé les chiens d'origine.
Dans les faits, les archéozoologues soupçonnent une double origine du chien depuis plusieurs décennies déjà. Et ce grâce à l'étude de restes de chiens anciens, datés de la fin du Paléolithique supérieur ou de l'Épipaléolithique. Problème, les généticiens restaient, eux, persuadés qu'il n'y avait eu qu'une seule domestication: en Asie.
Et pour cause: les généticiens en question analysaient l'ADN des chiens actuels. Lesquels appartiennent majoritairement à un ensemble de lignées génétiques particulier, d'origine asiatique: l'haplogroupe A. "Le problème avec cette démarche est qu'en cas d'événements gommant complètement le pool génétique antérieur de la population analysée - comme ici, l'arrivée de chiens asiatiques en Europe -, il est impossible de "voir" ce qu'il y avait avant, soit ici le fait qu'il existait déjà, avant l'arrivée des chiens asiatiques, des chiens en Europe de l'Ouest, appartenant à l'haplogroupe C...", explique Anne Tresset.
Des os remontant à l'époque des tout premiers chiens
"La force de notre nouvelle étude est justement qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques couvrant une longue période de l'histoire du chien, les plus vieux remontant à 14 000 ans, soit au début de l'histoire évolutive de ce mammifère. De plus, nos échantillons provenaient de différentes zones géographiques en Europe (France, Suisse, Allemagne, Roumanie...) et en Asie (Iran, Turkménistan, Russie asiatique)", souligne la paléogénéticienne lyonnaise Catherine Hänni.
"La force de notre étude est qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques."
Concrètement, les chercheurs ont reconstitué l'histoire évolutive des chiens en étudiant 59 restes archéologiques de chiens qui ont vécu entre 14 000 et 3 000 ans avant le présent. Les scientifiques ont extrait l'ADN ancien de ces ossements puis ont séquencé l'ADN mitochondrial (présent dans des structures particulières des cellules: les mitochondries). Le génome complet des restes d'un chien vieux de 4 800 ans a également été séquencé.
"Cette recherche n'aurait jamais abouti sans la collaboration étroite entre l'archéozoologie, la paléogénétique et l'analyse génomique", se réjouit Catherine Hänni.
Une alliance tripartite gagnante
En pratique, les archéo zoologues ont permis l'accès aux différents restes archéologiques de chiens analysés ici, qu'ils avaient étudiés lors de précédentes études indépendantes. "À elle seule, notre équipe a fourni plus des trois quarts des échantillons étudiés", indique Anne Tresset. Puis, les paléo généticiens - dont l'équipe lyonnaise de Catherine Hänni - ont extrait et séquencé l'ADN des ossements collectés par les archéo zoologues. Enfin, l'équipe d'Oxford a réalisé une modélisation informatique à partir des séquences génétiques anciennes et de celles de 2 500 chiens modernes étudiés précédemment. Ce qui a permis au final de reconstituer l'arbre évolutif du chien.
Chose surprenante, cette modélisation a révélé une divergence entre les chiens originaires d'Asie de l'Est et ceux d'Europe, remontant à il y a moins de 14 000 ans... soit après l'apparition du chien en Europe ! D'où la conclusion qu'il y avait à l'origine deux populations distinctes de chiens: une en Asie et une en Europe. Autre résultat important: les analyses des ADN mitochondriaux des chiens modernes et anciens ont montré que, si la majorité des anciens chiens européens appartenaient à l'haplogroupe C (60 % des chiens) ou D (20 %), la plupart des chiens européens modernes sont de l'haplogroupe A (64 %) et B (22 %), tous deux d'origines asiatiques. Ce qui est cohérent avec une arrivée de chiens originaires d'Asie en Europe.
D'autres zones d'ombre à éclaircir
À l'avenir, les équipes d'Anne Tresset et de Catherine Hänni espèrent pouvoir éclaircir plusieurs autres zones d'ombre de l'histoire européenne et proche-orientale du chien. "Par exemple, nous voudrions tenter de comprendre pourquoi on trouve dans l'Ouest de l'Europe plutôt des chiens petits, alors qu'à l'Est de l'Europe on a plutôt des grands types. Plus largement, nous souhaiterions étudier les facteurs à l'origine de l'évolution de la taille, de la couleur ou encore de la forme des chiens lors de leur histoire évolutive (sélection par l'homme,...)", précise Anne Tresset. L'histoire du chien est donc loin d'avoir livré tous ses secrets.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=15224

 

Commentaires: 0

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

épistémologie

Le premier chapitre de l’ouvrage montre que la période grecque est déterminante pour les développements ultérieurs de la connaissance, elle a posé certains principes fondamentaux qui seront discutés jusqu’à nos jours. En synthétisant les apports de penseurs grecs d’Héraclite et Parménide, de Socrate à Platon, Aristote et Épicure, Martine Bocquet pointe qu’à cette époque le signe (séméïon) est secondaire, il est considéré comme un signe de la nature que l’on peut interpréter (symptôme de maladies, foudre, etc.). Il s’oppose au mot qui, lui, repose sur une relation conventionnelle. Martine Bocquet montre qu’Aristote est important pour la sémiotique, de Deely en particulier. Réaffirmant l’importance du rapport sensible au monde, face à Platon, il a placé le séméïon au fondement de la connaissance et orienté ses recherches vers la relation comme catégorie discursive (pp. 33-45), notion qui sera au cœur des discussions des scoliastes.

Le chapitre deux montre l’évolution importante des notions de signe et de relation à la période latine médiévale et scolastique. Suivant l’étude de Deely, Martine Bocquet souligne le rôle d’Augustin d’Hippone. En traduisant le séméïon grec en signum, il a proposé la première formulation générale du signe qui subsume l’opposition entre nature et culture entre lesquelles il fonctionne comme une interface (p. 65, 68). Bien qu’elle demeure imparfaite, l’approche d’Augustin pose d’une part les fondements d’une théorie relationnelle de la connaissance ; d’autre part, en maintenant une distinction entre signe naturel (signum naturale, séméïon) et signe conventionnel (signum datum), elle ouvre sur une conception de la communication, tout à fait intéressante, engageant tous les êtres vivants (animaux, plantes) (p. 67, 69). D’une autre façon, la problématisation de la relation apparaît tout aussi importante à cette période. En distinguant, chez Aristote, la relatio secundum dici (relation transcendantale) — relation exprimée par le discours — et la relatio secundum esse (relation ontologique) — relation en tant qu’entité particulière (p. 70) — Boèce permet de concevoir l’existence de relations ontologiques, indépendantes de la pensée (p. 73) — fondamentales chez Poinsot, Peirce et Deely. Cette distinction aura son incidence puisqu’elle posera les termes de la querelle des universaux, tournant épistémologique majeur de l’histoire des connaissances.

Initiée par Pierre Abélard, la "querelle des universaux" est abordée par Martine Bocquet au chapitre trois et apparaît comme le point pivot de l’ouvrage (pp. 107-112) dans la mesure où elle aura une incidence sur le rapport au monde et à la connaissance. La dispute, qui porte sur la nature de l’objectivité et du statut de réalité des entités dépendantes ou non de la pensée, par le biais de la catégorie aristotélicienne de relation, et, par extension, de celle de signe, oppose les réalistes aux nominalistes.

Les penseurs dits "réalistes", parmi lesquels Thomas d’Aquin, Roger Bacon, Duns Scot, considèrent que le signe est constitué d’une relation indépendante de la pensée, dite ontologique, à la nature. Le traitement de Martine Bocquet montre clairement que Deely se retrouve dans la pensée de ces auteurs, dont il a avant tout souligné la contribution à la sémiotique de Peirce : (i) le signe subsume l’activité cognitive (pp. 80-81) (ii) la relation de signe est dans tous les cas triadique (p. 82), (iii) les signes se constituent de manière dynamique, ce qui leur permet d’agir (sémiosis) et de jouer un rôle dans l’expérience et la connaissance (pp. 83-86).

Martine Bocquet met particulièrement en évidence la pensée de Jean Poinsot (Jean de St-Thomas), en soulignant son influence sur Deely. L’originalité de ce dernier est d’avoir considéré Poinsot comme le précurseur d’une sémiotique voisine de celle de Peirce, plus ontologique encore. Pour le résumer en quelques points, Poinsot défend avant tout que la nature et la réalité du signe sont ontologiques (secundum esse), c’est-à-dire que le signe est une relation dont le véhicule est indifférent à ce qu’il communique (p. 102). Ce point est essentiel car il permet de doter le signe d’une nature proprement relationnelle : (i) il pointe vers autre chose (une autre réalité physique ou psychique), (ii) il permet d’articuler la subjectivité et l’intersubjectivité et (iii) opère la médiation entre les choses (indépendantes de la pensée) et les objets (dépendants de la pensée) (pp. 105-106) ; ce que la représentation, où l’objet pointe vers lui-même, n’autorise pas. Le point de vue de Poinsot est déterminant, car les nombreux retours vers sa pensée réalisés tout au long de l’ouvrage, montrent que c’est au prisme de ces principes que Deely réévaluait les pensées modernes.

De l’autre côté, les "nominalistes" comme Guillaume d’Ockham considèrent que la réalité est extra mentale, que seules les causes externes sont réelles, et qu’en conséquence, les relations intersubjectives n’existent que dans la pensée. Malgré l’intervention des successeurs d’Ockham qui, contrairement à celui-ci, admettront le signe, divisé en deux entités — signes instrumentaux (physiques, accessibles aux sens) et signes formels (concepts) — à partir de 1400 environ, les concepts (signes formels) seront considérés comme des représentations (p. 91). Martine Bocquet montre bien que le principe nominaliste, souvent simplifié, sera largement adopté par les sciences empiriques qu’il permettra de développer, mais cela, et c’est l’enjeu de la démarche de Deely, au détriment du rapport entre le monde et les sens.

Dans le quatrième chapitre consacré à la modernité, Martine Bocquet montre comment Deely a pointé les problèmes et les limites posés par l’héritage du nominalisme, en mettant notamment en perspective les travaux des empiristes (John Locke, David Hume), puis ceux de Kant, avec les propositions de Poinsot. Elle montre d’emblée que le rationalisme de Descartes, où la raison est indépendante et supérieure à la perception, conduira à renégocier la place de la perception dans la connaissance. En concevant les qualités des sens comme des images mentales, les modernes renversent l’ordre de la perception sensorielle reconnu par les scoliastes, les qualités sensorielles (couleurs, odeurs, sons) autrefois premières sont reléguées au second plan (p. 117). Les empiristes (John Locke, George Berkeley, David Hume) contribueront à considérer l’ensemble des sensations comme des images mentales, ils ne seront alors plus capables de s’extraire de la subjectivité (p. 121-124). À ce titre, Martine Bocquet porte à notre attention que Deely avait bien montré que l’empirisme et le rationalisme éludaient la description du phénomène de cognition.

L’approche de Kant apparaît dans l’ouvrage comme point culminant, ou synthèse, de la pensée moderne. En suivant les pas de Deely, Martine Bocquet prend le soin de mettre son travail en perspective avec la pensée de Poinsot, ce qui permet de réaffirmer sa pertinence dans le projet sémiotique de Deely. Kant a eu le mérite d’envisager des relations objectives. Toutefois, en limitant la cognition aux représentations, il la sépare de la signification, c’est-à-dire du supplément de sens contenu dans l’objectivité (au sens de Poinsot), et se coupe de l’expérience de l’environnement sensible qui permet à l’homme de connaître et de constituer le monde (pp. 130-131). Martine Bocquet insiste sur le fait que, selon Deely, la pensée kantienne est lourde de conséquences puisqu’en inversant les concepts d’objectivité et de subjectivité, elle enferme l’individu dans sa propre pensée (p. 134), reléguant la communication au rang d’illusion.

Le dernier chapitre de l’ouvrage est consacré aux chercheurs post-modernes, qui ont marqué la fin du modernisme et opéré un retour vers le signe. On y trouve notamment les apports d’Hegel et de Darwin, entre autres, qui ont permis d’affirmer le rôle concret de la relation ontologique dans la cognition, et la prise des facultés cognitives avec l’environnement physique. Martine Bocquet consacre une grande partie du chapitre à la sémiotique en tant que discipline, ce qui lui permet de réaffirmer l’ancrage de Deely dans l’héritage peircien qui est ici clairement distingué des modèles de Saussure et Eco.

Martine Bocquet rappelle d’abord que la pensée de Peirce s’inspire des réalistes (d’Aquin, Duns Scot) et considère donc que les produits de la pensée sont bien réels, et non de simples constructions des sens. La sémiotique qu’il développe appréhende la signification comme un parcours de pensée dynamique entre expérience et cognition. Dans son modèle ternaire, présenté en détail, la relation de tiercité caractérise le fonctionnement de la cognition humaine depuis la perception d’indices jusqu’à la constitution d’un système de signification ; elle est propre à l’homme qui peut se référer à la réalité mais aussi évoquer des choses imaginées (p. 146). L’intérêt de ce modèle est de permettre d’envisager que les non-humains utilisent aussi des signes, possibilité envisagée par Peirce dans sa « grande vision », doctrine qui selon Bocquet fascine Deely. Ce projet consistait à étendre la sémiotique au vivant, considérant que l’action des signes est enracinée dans toutes les choses du monde. Il ouvre sur un vaste champ de recherche abordé en conclusion, sur lequel nous reviendrons.

Contrairement à la sémiotique peircienne, Bocquet montre que John Deely considère que la sémiologie de Saussure, reposant sur le signe linguistique, est limitée car elle ne s’occupe que des signes conventionnels, culturels. De ce fait, elle se montre non seulement incapable d’approcher le signe naturel mais elle court aussi le risque de faire de la réalité une construction de l’esprit (idéalisme). En dépit d’un substrat peircien partagé, la même critique sera adressée à la théorie des codes d’Eco puis, plus loin dans la conclusion de Martine Bocquet (pp. 171-172), au structuralisme (Greimas, Lévi-Strauss). En somme, ces sémiotiques sont très efficaces pour étudier les systèmes de signes spécifiquement humains, mais, enfermées dans le langage et la culture, elles sont incapables de traiter les signes naturels, toute tentative révèle leur idéalisme. À cet endroit, l’auteure met bien en évidence l’opposition irréductible entre, d’un côté, ces théories qui ne rendent compte ni du signe naturel ni de la reconnaissance des phénomènes de la nature, et de l’autre, la posture de Deely qui défend l’idée que les données des sens ne sont jamais déconnectées et que la perception comprend une structure d’objectivité car les relations sont réelles (p. 165). Finalement, au travers de l’ouvrage, Bocquet montre que Deely prônait un retour à l’universalité du signe.

La conclusion du livre indique que Deely plaçait le signe et la sémiotique au cœur d’une pensée postmoderne capable de rétablir le dialogue entre les sciences dures et les sciences de la communication. Ce dialogue répondrait à la nécessité de comprendre l’action des signes autant dans la nature que dans la culture. Pour concrétiser cela, Deely propose un retour au réalisme oublié des scoliastes latins pour réviser les théories des modernes afin de renouer le lien avec la nature, en tenant compte des entités dépendantes et indépendantes de la pensée (p. 168).

Cette posture s’inscrirait, selon Martine Bocquet, dans un projet sémioéthique au sein duquel l’homme prendrait conscience de ses responsabilités vis-à-vis de la nature. Finalement, la solution à adopter correspond à la "grande vision" de Peirce, introduite en amont, c’est-à-dire une doctrine des signes qui, d’une part, intègre l’ensemble de la connaissance humaine du sensoriel aux interactions sociales et à la culture et, d’autre part, étend la sémiotique à l’ensemble du monde vivant, considéré comme un réseau de significations entre humains et non-humains, et noué sur une relation ontologique présente dans toute chose (pp. 169-170). Mis en application dans les années 1960, ce projet a donné lieu à un ensemble de sémiotiques spécifiques étudiant aussi bien le vivant, comme la physiosémiotique, la phytosémiotique, la zoosémiotique, la biosémiotique, que l’homme avec l’anthroposémiotique. Nous soulignons que certaines de ces disciplines sont aujourd’hui émergentes pour répondre aux questions environnementales actuelles en termes de climat, de cohabitation entre espèces et d’habitabilité du monde.

La restitution des travaux de Deely par Martine Bocquet semble tout à fait pertinente pour les sciences de la communication. Tout d’abord, parce que la démarche historique de Deely invitant à réévaluer nos acquis au prisme de modèles plus anciens, parfois moins connus, est tout à fait d’actualité et nécessaire dans notre réseau de recherche pluridisciplinaire. Ensuite, du fait de la structure détaillée du livre de Martine Bocquet qui permettra autant aux étudiants qu’aux chercheurs de trouver une formulation des concepts et des problèmes qui sous-tendent encore le domaine de la communication.

D’autre part, le grand intérêt de l’ouvrage réside dans le parti pris épistémologique de la sémiotique de Deely. En adoptant la relation ontologique de Poinsot, présente en creux chez Peirce, Deely ouvre des perspectives importantes pour le champ des sciences de la communication puisqu’il attire notre attention sur un concept universel de signe capable de réaffirmer la place du sensible dans la communication et de problématiser les interactions entre humains et non-humains. À ce titre, la pensée de Deely rapportée par Martine Bocquet est tout à fait en phase avec la recherche de ces quinze dernières années où différentes disciplines ont cherché à étudier la signification au-delà des particularités entre humains mais aussi entre êtres vivants, soit en adoptant un point de vue ontologique soit en intégrant les sciences physiques ou cognitives. Citons par exemple la biosémiotique, la zoosémiotique mais aussi l’anthropologie de la nature de Philippe Descola, "l’anthropologie au-delà de l’humain" d’Eduardo Kohn, la sémiophysique de René Thom et Jean Petitot ou encore la sémiotique cognitive.

Auteur: Chatenet Ludovic

Info: résumé critique de : Martine Bocquet, Sur les traces du signe avec John Deely : une histoire de la sémiotique Limoges, Éditions Lambert Lucas, 2019, 200 p.

[ panorama sémiologique ] [ anthropocentrisme ] [ xénolinguistique ] [ philologie ]

 

Commentaires: 0

Ajouté à la BD par miguel