Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 29
Temps de recherche: 0.0376s

neuro psychologie

Pourquoi notre cerveau nous pousse à détruire la planète et comment l’en empêcher.
A l’instar de "Biologie du Pouvoir" et de "La Nouvelle Grille", "Le Bug Humain" a pour ambition de trouver dans le fonctionnement même de notre cerveau des mécanismes qui expliquent nos comportements et nos choix à l’échelle individuelle et sociale et en quoi ces mêmes mécanismes sont responsables de notre déni devant la catastrophe écologique qui arrive à grands pas.
Mais contrairement à ses deux prédécesseurs, Le Bug Humain ne s’avance pas jusqu’à proposer une solution politique claire. Une frilosité que l’on regrettera.

Le constat est édifiant : L’humanité vit largement au dessus de ses moyens et ne semble pas prendre la réelle mesure des conséquences d’une telle surconsommation. A qui la faute ? Au striatum. Cette partie de notre cerveau a pour rôle de récompenser en dopamine des comportements qui favorisent la survie et la diffusion du patrimoine génétique : Se nourrir, avoir des relations sexuelles, le goût du moindre effort, l’utilité ou rang social et l’information. Si ces fonctions du striatum ont permises à l’Homo Sapiens de survivre et de croitre dans un environnement hostile et de rareté, il n’est plus adapté à nos sociétés d’abondance sécurisées. Il devient même dangereux quand il est confronté à des technologies telles que les réseaux sociaux. Car lorsque l’on publie ses photos de vacance sur Facebook ou qu’on se fend d’une réplique cinglante sur Twitter, nous donnons de l’importance aux likes et autres retweets qui vont répondre à la fois à notre besoin de reconnaissance sociale et à notre attirance vers le moindre effort puisque nous n’avons plus besoin d’agir en société ou au travail mais à cliquer sur quelques icônes pour nous situer socialement :

"Si vous obtenez moins de likes que ce que vous attendiez après avoir modifié votre profil, votre striatum s’éteint et votre estime de soi chute; si vous obtenez plus de likes que vous ne le prévoyiez, ce même striatum produit de violentes décharges de dopamine qui vous apporte une bouffée de bien-être. Cela se traduit par une mise à jour de votre estime de soi au sien de vos archives personnelles, lesquelles sont tenues par une zone de votre cerveau localisée deux centimètres en retrait de votre front. Cette zone cérébrale appelée cortex préfrontal ventromédian va en tirer des conclusions sur ce que vous valez à vos propres yeux. Si vous venez d’obtenir une récompense, [il] fait monter d’un cran votre estime de soi. Si vous avez reçu une punition, il la revoit à la baisse. Tout part de ce principe interne de recherche d’approbation par le striatum, une partie de nous-même qui nous enjoint constamment de faire face au jugement d’autrui, en quête de reconnaissance."

Pour autant, Le Bug Humain ne nous livre pas un déterminisme simpliste qui ferait du striatum tel qu’il est décrit le seul facteur déterminant de tous nos comportements. En prenant l’exemple de la prédominance des comportements altruistes chez les femmes par rapport aux hommes, Bohler illustre le concept de "conditionnement opérant". Si les femmes voient leurs comportements altruistes mieux récompensés par leur striatum c’est parce qu’elles ont appris à être altruistes. On leur a signifié dès leur plus jeune âge que le partage était une bonne chose. Le conditionnement socioculturel peut donc, dans une certaine mesure, orienter le système de récompense de notre cerveau.

S’il manque de témérité politique, Le Bug Humain a tout de même le mérite de vulgariser efficacement certaines connaissances et de nous alerter sur des problèmes intrinsèquement liés aux réseaux sociaux, au pouvoir et sur notre capacité à prendre conscience des conséquences de notre activité sur Terre tout en évitant les travers des déterminismes simplistes, qu’ils soient uniquement génétiques ou uniquement socioculturels.

Auteur: Internet

Info: A propos de Le Bug Humain de Sébastien Bohler (2019), Posted https://refractairejournal.noblogs.org 27/02/2019 by REFRACTAIRE

[ humains virus terrestres ] [ récompense ] [ motivation ]

 

Commentaires: 0

Ajouté à la BD par miguel

contrepouvoir

L'HÉGÉMONIE CULTURELLE SELON GRAMSCI

Constatant que les révolutions communistes promises par la théorie de Marx n’avaient pas eu lieu dans les sociétés industrielles de son époque, Gramsci formule une hypothèse. Si le pouvoir bourgeois tient, ce n’est pas uniquement par la main de fer par laquelle il tient le prolétariat, mais essentiellement grâce à son emprise sur les représentations culturelles de la masse des travailleurs. Cette hégémonie culturelle amenant même les dominés à adopter la vision du monde des dominants et à l’accepter comme "allant de soi".

Cette domination se constitue et se maintient à travers la diffusion de valeurs au sein de l'École, l'Église, les partis, les organisations de travailleurs, l'institution scientifique, universitaire, artistique, les moyens de communication de masse... Autant de foyers culturels propageant des représentations qui conquièrent peu à peu les esprits et permettent d’obtenir le consentement du plus grand nombre.

Pour renverser la vapeur, toute conquête du pouvoir doit d’abord passer par un long travail idéologique, une lente préparation du terrain au sein de la société civile. Il faut, peu à peu, subvertir les esprits, installer les valeurs que l’on défend dans le domaine public afin de s’assurer d’une hégémonie culturelle avant et dans le but de prendre le pouvoir.

Exemple récent, l’idéologie néolibérale qui s’est auto-instituée comme seul système d’organisation économique possible. Il est le fruit d’un long travail sous-terrain de conquête des esprits depuis les cercles de réflexion d’économistes américains et européens (think-tanks) des années 50 aux journalistes, hauts fonctionnaires, leaders d’opinion, lobbys et artistes qui imposent peu à peu ses principales idées dans la sphère culturelle : "La compétition généralisée est saine", "Le marché s’auto-régule", "Il faut limiter les dépenses publiques et baisser les impôts", "L’État est un mauvais gestionnaire", etc.) avant de connaître une traduction politique dans la prise de pouvoir par Ronald Reagan aux États-Unis, Margaret Thatcher en Angleterre jusqu’à Deng Xiaoping en Chine.

CONQUERIR LA SOCIETE CIVILE

Pour Gramsci, l'État ne se résume pas au seul gouvernement. Même si ces sphères se recoupent souvent, on peut distinguer deux lieux de son pouvoir :

— D’une part, la "société politique2 qui regroupe les institutions politiques, la police, l’armée et la justice. Elle est régie par la force.

— D’autre part la "société civile" qui regroupe des institutions culturelles (université, intellectuels, médias, artistes) et qui diffuse de manière ouverte ou masquée l'idéologie de l'État afin d'obtenir l'adhésion de la majorité de la population. Elle est régie par le consentement.

Si dans les régimes dictatoriaux, c’est surtout la société politique qui règne (par l’oppression), dans les sociétés occidentales démocratiques, c’est principalement la société civile qui organise la domination. C’est donc dans son cadre que le combat (culturel) doit être mené et non par une confrontation frontale avec la société politique.

Si l’on suit Gramsci, il faut d’abord distiller les idées progressistes, travailler aux marges et dans les interstices, réaliser un travail de "termite" pour ronger progressivement toutes les bases de la société capitaliste traditionnelle. L’objectif est celui de combattre les intellectuels de la classe dominante. Une tâche que Gramsci confiait aux intellectuels au sens large (ceux qui manipulent des idées), du moins ceux qui sont organiquement lié aux travailleurs. Il faut pour ce faire percer dans les médias de masse, envahir le langage courant, ou encore imposer ses thèmes et ses concepts dans le débat universitaire et public. À gauche, cela pourrait être d’une part de remettre en cause préceptes et mots du néolibéralisme pour les disqualifier et d’autre part d’imposer des thèmes et des termes comme "catastrophe écologique", "salaire maximum", "relocalisation", "gratuité", "coopérative", "paix économique", "services collectifs", "peuple", "écroissance", "précariat", "égalité réelle", "recherche du bien-être", etc.

À ce titre, si internet permet de nos jours une accélération de ce travail de sape et de diffusion de messages contraire à l’ordre du discours, la lutte contre l’hégémonie de la classe dominante doit aussi être menée en profondeur dans les réseaux sociaux humains. C’est notamment le rôle de l’éducation populaire.

Auteur: Berthier Aurélien

Info: 4 avril 2011, www.agirparlaculture.be

[ sociologie ] [ subversion sémantique ]

 

Commentaires: 0

magouille sémantique

Manipulation du savoir : L'intersection de la fenêtre d'Overton et de l'activisme académique

Les frontières de la science sont-elles devenues poreuses avec l'activisme académique ? C'est la question centrale que soulève Jean-François Le Drian dans son nouvel ouvrage, "Activismes" paru chez VA Éditions, et au cours de cette entrevue. Au fil de la discussion, l'auteur dévoile les dessous d'une manipulation subtile du savoir, où l'intersection de la fenêtre d'Overton et de l'activisme académique joue un rôle déterminant. Il décrit avec précision comment de simples idées peuvent être élevées au rang de concepts scientifiquement acceptables, affectant ainsi l’intégrité de la recherche authentique et de la méthodologie scientifique. Cet échange éclairant met en lumière le combat essentiel pour préserver l'authenticité et l'objectivité de la science face à une mer montante de pseudoscience et d'idéologies activiste.

(Q) Pour nos lecteurs qui ne sont pas familiers avec la fenêtre d'Overton, pourriez-vous brièvement expliquer ce concept et comment il peut être utilisé pour changer la perception du public sur certaines idées ?

(R) Pour expliquer ce concept, il est préférable de l’illustrer avec un exemple. Si je vous disais que les djinns existent, peuvent nous posséder, nous adresser des injonctions, vous seriez dans un premier temps tenter de ranger cette thèse dans la catégorie des superstitions et des lubies et vous auriez certainement raison.

Si un philosophe se met à distinguer entre la propriété des pensées et la paternité des pensées et décide d’étudier en employant un jargon académique la possibilité d’une paternité extérieure des pensées, l’impensable devient tout à coup pensable.

Justement, dans mon livre, j’explique comment un philosophe reconnu par ses pairs en arrive à affirmer que la psychologie est nécessairement culturelle et que par conséquent certaines théories psychologiques peuvent valablement affirmer la possibilité d’une paternité extérieure des pensées.

Ici on passe de l’impensable au pensable puis au possible. Il ne reste plus qu’à faire porter ces idées par les activistes de la folie pour les rendre acceptables, le stade suivant étant de loger ces représentations dans le registre du " souhaitable ".

Ainsi, un idéologue activiste doté d’un doctorat peut donc tout à fait, s’il s’y prend bien, faire entrer l’idée la plus absurde dans le registre de l’acceptable voire parfois même du non discuté.

(Q) Dans votre texte, vous mettez en lumière la manière dont certaines idées reçoivent un "sceau académique" sans une vérification empirique rigoureuse. Comment les institutions académiques, selon vous, ont-elles été transformées en vecteurs de diffusion d'idées influencées par l'activisme ?

(R) Selon moi, l’une des grandes erreurs de notre temps consiste à accorder trop d’importance à la sociologie de la connaissance au détriment de la philosophie des sciences. Au lieu de s’intéresser au contenu, la tendance consiste à s’attacher aux intentions présumées du créateur d’idées, de thèses, à son " habitat social ".

Il est malheureusement facile de construire des théories qui font rentrer tous les faits et qui par conséquents ne devraient pas être qualifiées de théories scientifique. C’est le cas de certaines théories dites " normatives " dont le degré de scientificité est généralement très faible.

Le simple usage d’un jargon spécialisé usité au sein d’une mouvance universitaire permettra à un universitaire militant d’obtenir une reconnaissance par ses pairs qui aux yeux du public vaudra reconnaissance du caractère scientifique d’une thèse qui en réalité ne possèdera le plus souvent qu’un caractère normatif.

(Q) Vous évoquez la saturation de l'espace académique avec des "hadiths scientifiques". Comment ce mécanisme fonctionne-t-il et quels sont ses effets sur la recherche authentique ?

(R) Les hadiths scientifiques sont des scripts normatifs sans degré de scientificité auxquels on attache une connotation scientifique le plus souvent parce que leurs inventeurs disposent d’un titre académique et que le hadith possède un vernis académique qui lui confère une apparence de scientificité.

(Q) Face à la montée d'un tel activisme, que recommanderiez-vous aux chercheurs pour préserver l'intégrité de leurs travaux et s'assurer qu'ils ne sont pas noyés dans un "océan de pseudoscience" pour reprendre vos termes ?

(R) La première chose est de bannir le raisonnement téléologique, celui qui consiste à décider à l’avance du résultat à atteindre et à ajuster son raisonnement à ses intentions. Un " vrai " chercheur devrait parfois pouvoir aboutir à des conclusions qui lui déplaisent et qui contredisent ses croyances préexistantes.

Il faut revenir à la méthode qui consiste à chercher continuellement à falsifier, à réfuter ses propres convictions. Aujourd’hui, même dans les milieux universitaires, on procède de manière inverse en produisant les rationalisations ou en sélectionnant les faits qui viendront soutenir une idéologie préexistante.

Le biais de confirmation est exactement le contraire de la méthode scientifique. Malheureusement, il affecte autant les départements de sociologie et de sciences politiques que le grand public.

Auteur: Internet

Info: https://www.journaldeleconomie.fr/, 17 Octobre 2023, par La Rédaction

[ instrumentalisation ] [ onomasiologique ] [ science molle ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

ChatGPT, Chomsky et la banalité du mal

Dans une tribune parue dans le New York Times, le philosophe et linguiste Noam Chomsky balance du lourd contre le robot de conversation ChatGPT, qu’il accuse de disséminer dans l’espace public un usage dévoyé du langage et de la pensée susceptible de faire le lit de ce que Hannah Arendt appelait “la banalité du mal”. Voilà une charge qui mérite d’être examinée.

C’est une question essentielle que soulève Noam Chomsky dans la tribune qu’il a publiée avec Ian Roberts, linguiste à l’université de Cambridge, et Jeffrey Watumull, philosophe spécialiste d’intelligence artificielle. Une question qui touche à l’essence du langage, de la pensée et de l’éthique. Dans la confrontation avec l’intelligence artificielle, affirment-ils, c’est le propre de l’intelligence humaine qui apparaît et qui doit être préservé : si nous sommes capables, nous les hommes, de générer de la pensée et du langage, c’est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l’impossible et de la loi. Or, la “fausse promesse” de l’intelligence artificielle, selon le titre de la tribune, est de nous faire miroiter qu’il serait possible d’obtenir les mêmes performances en se passant de cette confrontation à la limite et à la règle qui fait le ressort de l’expérience humaine. Tentons de suivre cette démonstration, hautement philosophique.

On comprend que Chomsky se soit senti mis en demeure de se pencher sur les nouveaux robots conversationnels tels que ChatGPTBard ou Sydney. Fondateur de l’idée de grammaire générative, le philosophe soutient en effet que les hommes disposent avec le langage d’une compétence à nulle autre pareille, une puissance intérieure de générer et de comprendre, grâce à un nombre fini de règles, un nombre infini de propositions qui expriment leur pensée. Or, quand ChatGPT parvient à générer des réponses sensées à nos questions sur la base des millions d’énoncés que le système a appris automatiquement, qui dit que le robot ne parle et ne pense pas à son tour ? Qu’il ne génère pas du langage et donc de la pensée ? La réponse de Chomsky est profonde et subtile. Elle part, comme souvent chez lui, d’un petit exemple grammatical : “John is too stubborn to talk to.” Tout locuteur anglais lambda comprendra immédiatement le sens de cette phrase sur la base de sa connaissance de la langue et de la situation dans laquelle elle est proférée. Elle signifie : “John est trop têtu pour qu’on le raisonne.” Où John, sujet initial, bascule implicitement en complément d’objet, et où le “talk” signifie “raisonner” et non pas “parler”. L’IA, elle, sera induite à comprendre : “John est trop têtu pour parler à quelqu’un.” Parce qu’elle n’a pas accès à la règle ni à la situation, elle cherche en effet à prédire la bonne signification d’un énoncé sur la base du plus grand nombre d’occurrences analogiques. Mais de même que “John a mangé une pomme” équivaut souvent à “John en a mangé”, de même, “John est trop têtu pour parler” a des chances de vouloir dire “John est trop têtu pour parler à quelqu’un” davantage que “pour qu’on le raisonne”.

Au vu des performances des nouveaux logiciels de traduction, tels que DeepL – dont j’ai d’ailleurs dû m’aider pour être sûr de bien comprendre l’exemple de Chomsky –, on pourrait être tenté de relativiser cette confiance que fait ici le philosophe dans l’intelligence humaine du langage. Mais le raisonnement monte en puissance quand il touche à la loi, scientifique ou éthique. Soit l’énoncé “la pomme tombe” ou “la pomme tombera”, formulé après que vous avez ouvert la main ou que vous envisagiez de le faire. Une IA est à même de formuler chacune de ces deux propositions. En revanche, elle sera incapable de générer l’énoncé : “La pomme ne serait pas tombée sans la force de la gravité.” Car cet énoncé est une explication, c’est-à-dire une règle qui délimite le possible de l’impossible. On tient là pour Chomsky la ligne de partage entre les deux intelligences. En dépit de la puissance d’apprentissage et de calcul phénoménal qui est la sienne, l’intelligence artificielle se contente de décrire et/ou de prédire à partir d’un nombre potentiellement infini de données, là où l’intelligence humaine est capable, avec un nombre fini de données, d’expliquer et de réguler, c’est-à-dire de délimiter le possible et l’impossible. Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être.

Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ?

Auteur: Legros Martin

Info: https://www.philomag.com, 13 Mars 2023

[ déficit holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

magouilles

Industrie du médicament : "J'ai vendu mon âme au diable"

John Virapen, 64 ans, livre le récit de son parcours dans l'industrie pharmaceutique. Une confession professionnelle peu ordinaire. John Virapen, ancien directeur de la firme Eli Lilly en Suède, a rédigé dans sa soixante-quatrième année une confession professionnelle peu ordinaire.

"Depuis des années parfois aux premières heures du jour des silhouettes fantomatiques m’apparaissent en rêve, écrit-il en préambule. Elles se tapent la tête contre les murs ou s’entaillent les bras et la gorge a coups de rasoir. J’ai maintenant compris que j’avais indirectement contribué a la mort de personnes dont les ombres me hantent.

Je n’ai évidemment tué personne directement, mais aujourd'hui je ne peux pas ne pas me sentir responsable en partie de ces morts. J’ai été un instrument, un exécutant, mais consentant, aux mains de l’industrie. […] J’ai été certes manipulé, mais sans me poser de questions. J’ai vendu mon âme au diable."

Le cas du Prozac
D’origine indoue et fils de pêcheur illettré de la Guyane britannique, l’auteur de ce mea culpa glaçant est entré dans l’industrie pharmaceutique, en 1968, par la toute petite porte. En acteur habile de ce qui ne s’appelle pas encore marketing, John Virapen est déjà en 1981 directeur des ventes de la firme Eli Lilly pour la Suède.

Il raconte les petits pactes inavouables qui se scellent dans ce milieu feutré, et la main mise des firmes sur les leaders d’opinion, ces grands professeurs renommés et gardiens de la doxa. Ainsi l’entre eux, spécialiste du traitement de la douleur et expert au ministère de la santé, recevait-il de Lilly un salaire fixe, moyennant conseil, relecture de brochures et autres conférences.

On faisait surtout appel à lui en cas d’attaque contre nos produits dans les médias, souvent à propos d’effets secondaires. Il écrivait immédiatement des articles en notre faveur dans les journaux médicaux. Le microcosme médical était rassuré, la grande presse n’en parlait plus."
En 1986, pour le lancement de la fluoxétine d’Eli Lily, molécule d’or baptisée Prozac qui sera jusqu’à expiration du brevet en 2001 l’antidépresseur le plus prescrit au monde, John Virapen va commettre ce qui le hante au petit matin : avoir aidé à promouvoir un médicament dont il connaissait –déjà- l’impact suicidaire (pour les effets secondaires réels des psychotropes, voir le site de veille sanitaire indépendant de David Healy, chercheur à l’université de Cardiff RxiSK.org) et dont la supériorité sur le placébo n’est toujours pas établie en 2014.

Mais pour l’heure, tandis qu’au siège on organise le plan com’ qui fera de la dépression une maladie couramment diagnostiquée dans tous les pays riches, les satrapes de Lilly s’affairent dans les capitales afin d’obtenir pour le Prozac une autorisation de mise sur le marché.

Comment des suicidés ont disparu
A Stockholm, John Virapen sait qu’un expert indépendant a été officiellement désigné pour émettre un avis. Le nom du professeur est confidentiel, pour tenir éloignés les lobbies justement. John Virapen veut savoir. Il n’y a dans toute la Suède que cinq experts psychiatres suffisamment qualifiés pour avoir été sollicité par l’Etat.

L’un fait partie des autorités de santé ; ça ne peut être lui. Pour les quatre autres, il va agir en profiler et demander à ses visiteurs médicaux de se renseigner, discrètement. Après quelques semaines de ce maillage discret, l’expert est repéré : c’est Pr Z., à Göteborg. "J’entrepris d’étudier le Pr Z. de plus près. Il aimait la voile. Je m’achetai un livre sur la voile." Virapen l’appelle, et parvient à l’inviter à dîner.

Un facteur a joué en ma faveur, je n’aimais pas le Pr Z, poursuit-il. Une réelle sympathie rend les manipulations plus difficiles. On n’aime pas piéger une personne qu’on apprécie. On ne veut pas obliger quelqu’un qu’on aime à franchir les frontières de la légalité. Le fait de ne pas aimer était donc un atout."
Un deuxième dîner va sceller leur entente. "L’argent est toujours utile", répond l’expert indépendant quand son hôte lui demande ce qui ferait accélérer son affaire. Le lendemain, Virapen appelle le bureau de Lilly à Copenhague, qui supervise les pays du Nord, explique qu’il faut 100.000 couronnes pour obtenir une autorisation rapide, soit 20.000 dollars. "Le bureau de Copenhague consulta celui de Genève. Cela prit 24 heures. Puis je reçus un appel :'John, faites tout ce qui vous semble nécessaire.'"

L’expertise du Dr Z. en fut quelque peu orientée. Dans le dossier initial, voici un exemple de ce qu’on pouvait lire : "Sur dix personnes ayant pris le principe actif, 5 eurent des hallucinations et firent une tentative de suicide dont 4 avec succès." A la place on lisait désormais : "Les 5 derniers ont présentés divers effets secondaires." Escamotés, les suicidés sous Prozac, au cours de la phase d’expérimentation.

Au dessus des lois ? Au dessus des Etats ?
Ce témoignage paraît un mois après celui de Bernard Dalbergue, ancien cadre de chez Merck ; un an après l’ouvrage de Julie Wasselin qui fut pendant trente ans visiteuse médicale; et dix ans après que Philippe Pignarre, ancien de chez Synthelabo et lanceur d’alerte avant l’heure, a publié "Le Grand secret de l’industrie pharmaceutique". Tous démontrent que la santé est depuis trente ans une affaire de business et de marketing sur fonds de désinformation aux conséquences criminelles.

La confession de John Virapen a été traduite par Philippe Even, qui poursuit ainsi un travail de recadrage entrepris en 2005, soit cinq ans avant le scandale Servier, avec sa traduction du livre Marcia Angell, rédactrice en chef démissionnaire du prestigieux "New England Journal of Medecine" (NEJM), "La vérité sur les compagnies pharmaceutiques".

Étrangement, ces révélations ne suscitent pas l’effroi et les révolutions qu’elles devraient. Comme si la pharmaco-délinquance était une fatalité, et l’industrie du médicament une organisation impossible à contrôler, au dessus des lois, au dessus des Etats.

Auteur: Crignon Anne

Info: Le Nouvel Observateur Publié le 18 avril 2014

[ big pharma ]

 

Commentaires: 0

Ajouté à la BD par miguel

syntaxe diachronique

Le premier département de la logique, la grammaire spéculative, est une analyse de la structure des signes : avant même qu’un argument soit analysé en termes de validité et d’utilité, il est nécessaire qu’il soit soumis à une analyse grammaticale. Un argument consiste dans la représentation du fait qu’une proposition découle d’autres propositions, et cette représentation peut être représentée dans une proposition ("si les prémisses, alors la conclusion"). L’analyse de la nature de la proposition est donc préliminaire à l’analyse de la nature, de la validité et de l’utilité de l’argument. La première branche de la logique devra donc avant tout consister en une analyse de la proposition. L’essai "L’essence du raisonnement", chapitre VI du traité sur la logique "How to Reason", qui fut projeté mais jamais achevé, contient la présentation la plus complète de la section grammaticale de la logique que Peirce a écrite avant le Syllabus de 1903. Il existe deux versions de ce chapitre (MS 408 et MS 409). Le point de départ est l’enquête sur la nature de la proposition : 

"§ 62. Examinons maintenant en quoi consiste l’élément assertorique d’un jugement. Qu’y a-t-il dans une affirmation qui en fait plus qu’une simple complication d’idées ? Quelle est la différence entre émettre le mot "singe parlant", soutenir que les singes parlent, et s’informer si les singes parlent ou non ? C’est une question difficile. (MS 409, p. 94)"

La différence à laquelle Peirce fait allusion est évidemment celle, traditionnelle, entre termes, propositions et arguments. Traditionnellement, une proposition est conçue comme une combinaison de termes, et un argument comme une combinaison de propositions. Toutefois, selon Peirce, ce n’est pas la compositionnalité qui distingue ces trois formes ; le terme "singe parlant" n’est pas moins composé que la proposition selon laquelle les singes parlent. La différence entre un terme et une proposition, écrira Peirce dans les "Prolégomènes à une apologie du pragmatisme" de 1906, se trouve dans la fonction logique accomplie.

Selon l’analyse traditionnelle, une proposition est une connexion de termes au moyen d’une copule. Selon Peirce, cette analyse est viciée par l’hypothèse de l’universalité de la structure syntaxique des langues indo-européennes. Sur la base des Principes généraux de la structure des langues de James Byrne mentionnés à plusieurs reprises dans "L’essence du raisonnement", Peirce traite de la structure syntaxique du signe propositionnel dans différentes langues naturelles, dans le but de montrer que l’analyse traditionnelle non seulement ne reflète qu’un petit pourcentage des langues existantes (celles indo-européennes), mais en outre ne reflète pas la structure logique fondamentale du signe propositionnel. Par exemple, dans de nombreuses langues non indo-européennes, la fonction de la copule est accomplie par d’autres éléments linguistiques, parfois par la simple juxtaposition des éléments.

Dans l’ancienne langue égyptienne, qui semble être à portée d’oreille de l’origine de la parole, l’expression la plus explicite d’une copule se fait au moyen d’un mot qui est réellement le pronom relatif, [qui]. Or, à celui qui considère une phrase du point de vue indo-européen, c’est un casse-tête de comprendre comment "que" peut remplir cet office à la place du "est". Pourtant rien n’est plus naturel. Le fait que les hiéroglyphes viennent si facilement aux Égyptiens montre combien leur pensée est picturale. Quand l’Égyptien dessine une image hiéroglyphique comme celle-ci (fig 1) l’Aryen peut être perplexe pour savoir ce qu’il veut dire, mais à l’Égyptien il indique clairement "Ce à propos de quoi nous écrivons est un soldat", et quand il fait l’image (fig 2) le sens est "Ce à propos de quoi nous écrivons est abattu". Écrivez cela avec [pu] (fig 3) "que" entre eux, et mettez un nom propre, disons Aahmes, devant eux, et nous avons "Aahmes sur quoi nous écrivons est un soldat dont ce que nous écrivons à propos est abattu", c’est-à-dire Aahmes le soldat est renversé. Êtes-vous tout compte fait absolument sûr que ce n’est pas le moyen le plus efficace d’analyser le sens d’une proposition ? (MS 409, p. 139)

Le hiéroglyphe (fig1) ne correspond pas au nom commun "soldat", mais à ce que Peirce appelle un rhème "est un soldat" ; de même, le hiéroglyphe (fig 2) correspond non pas au prédicat "abattu" mais au rhème "est abattu". Mais qu’est-ce qu’un rhème ? Un rhème, explique Peirce, est ce qui reste quand tous les éléments d’une proposition qui peuvent jouer le rôle de sujet ont été soustraits. La structure d’un rhème est constituée du nombre de places sujets qu’il manifeste : si on soustrait le sujet Aahmes de la proposition "Aahmes est un soldat", ce qui reste ("est un soldat") est un rhème.

La similitude étroite entre la notion peircienne de rhème et ce que Frege a appelé un concept (fonction insaturée) et Russell une fonction propositionnelle a été remarquée depuis longtemps, et il n’est pas besoin d’y insister ici . Peirce rappelle que les grammaires insistent à tort sur le sujet nominatif, alors que du point de vue d’une grammaire universelle ou spéculative le sujet nominatif n’a pas plus de droit à être considéré comme sujet à part entière de la proposition que les objets directs ou indirects. Tant et si bien que, comme Peirce le rappelle toujours sur la base des Principes de Byrne, dans les langues inuites et samoyèdes le sujet d’un verbe transitif se met au cas possessif, tandis que dans les langues malaises et dans la langue basque on utilise l’ablatif. L’accent mis sur le sujet nominatif est, encore une fois, un préjugé grammatical indo-européen, et la logique doit être en mesure de faire sans lui.

Il est important de souligner que le concept de rhème montre que la copule est un élément dont on peut se dispenser dans la syntaxe. Dans l’ancienne langue égyptienne que Peirce utilise à titre d’exemple, le pronom [pu] peut servir de copule. C’est possible, selon Peirce, parce que dans cette langue les éléments dont une proposition se compose sont des rhemata, c’est-à-dire des prédicats insaturés (incomplets) qui sont saturés grâce à l’identification des positions-sujet que chacun d’eux manifeste dans sa propre structure. Si nous pensons au terme comme à un élément saturé ("soldat", "abattu"), le seul moyen de parvenir à une proposition à partir de ces termes se fait au moyen d’une copule ; mais si nous pensons au terme comme à un élément insaturé ("est un soldat", "est abattu"), le seul moyen d’obtenir une proposition est par la saturation, autrement dit en identifiant les positions-sujet indéterminées : "quelque chose est un soldat, lequel est abattu".

Le "nom commun" des grammairiens est un élément inessentiel de l’analyse logique. Dans de nombreuses langues historico-naturelles, il n’y a pas de noms communs, mais seulement des verbes :

Il semble que, en un sens large, les mots ordinaires dans la majeure partie des langues sont assertoriques. Ils affirment dès qu’ils sont de quelque façon liés à un objet. Si vous écrivez VERRE sur une boîte, on comprendra que vous voulez dire que la boîte contient du verre. Cela semble certainement la déclaration la plus vraie pour la plupart des langues de dire qu’un symbole* est un signe conventionnel qui, étant attaché à un objet, signifie que cet objet a certains caractères (MS 409, p. 95).

Auteur: Bellucci Francesco

Info: In "Peirce, philosophe du langage" Dans Cahiers philosophiques 2017/3 (N° 150), pp 91 à 110

[ fonction motrice ] [ syntagmes ] [ rationalisme onomasiologique ] [ méta-sémantique ] [ vocables ] [ mots-objets ] [ idéogrammes ] [ pictogrammes ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

La conscience du Dauphin
Bien entendu, les modèles du monde ne manqueront pas de différer selon le degré où les systèmes sensoriels périphériques diffèrent.
Le travail du cerveau est en effet, au moins en partie, de construire une réalité cohérente à partir de données sensorielles spécifiques, réalité qui constitue d’ailleurs la seule connue par celui qui l’expérimente au détriment de toutes les autres.
Dans le cas du dauphin, le système nerveux est celui d’un herbivore retourné à la mer, il y a quelques millions d’années, et ne diffère donc pas fondamentalement de celui de n’importe quel autre grand mammifère.
Le monde physique en revanche, au sein duquel il évolue, nous poserait à nous, humains, d’impossibles défis. C’est pourquoi les cétacés ont développé tout à la fois des formes physiques mieux adaptées au milieu marin mais surtout tout un outillage sensoriel susceptible des les aider à survivre dans un monde humide, froid et obscur, où règnent de fortes pressions.
Faire l’expérience d’une telle subjectivité est par définition une tâche impossible. Même entre époux, entre amis, entre enfants et parents, cette connaissance ne peut s’acquérir que par le biais maladroit du discours mais jamais nous ne pourrons accéder au "goût du monde" d’une autre espèce que la nôtre.
Il se fait heureusement que nos organes sensoriels et nos structures cérébrales sont des outils communs à tous les êtres humains, ce qui nous permet de fonder l’illusion d’un univers de formes stables et tangibles, dont l’existence fait l’unanimité mais que nous sommes les seuls à percevoir comme telles.
En revanche, nous sommes génétiquement incapables de nous figurer un monde filtré par d’autres sens que les nôtres, de la même manière qu’il nous est impossible de visualiser un cube en quatre dimensions ou simplement le monde des abeilles….
"Pouvez-vous imaginer l’expérience que représente le fait d’être sans cesse corrélé à une boussole solaire ?" nous demande le neurologue H.Jerison à ce propos "L’information consiste en la triangulation des objets externes relativement à un observateur (le je) et au soleil comme point de référence. Si cette réaction devait être représentée en terme de perception, on pourrait dire que l’abeille ou la fourmi ressent de manière constante l’existence des points cardinaux au sein d’un monde tridimensionnel de type euclidien. Si notre système sensoriel était celui des hyménoptères, c’est cela la seule réalité que nous pourrions percevoir.
L’intégration de deux points de référence, le soi et le soleil, plutôt qu’un seul soi unitaire en tant qu’origine et centre d’un monde périphérique, doit certainement mener à d’autres perspectives sur les dimensions fondamentales de la réalité. Il est intéressant d’imaginer les catégories additionnelles que Kant aurait pu reconnaître en tant qu’à priori si nous avions été équipés d’un tel système de navigation!"
Les expériences de Louis Herman nous apprennent que les dauphins partagent tout de même les mêmes dimensions que nous : le haut, le bas, la gauche la droite, devant, derrière, tout cela existe chez eux mais il semble qu’ils ignorent la nuance entre les adjectifs "grand" et "petit" et qu’ils construisent leurs phrases selon un mode syntaxique particulier. Ces expériences, profondément anthropocentristes, n’offrent qu’un pâle reflet d’un monde mental autrement plus riche et foisonnant en liberté, comme le montre avec bien plus d’éclat le très étrange langage delphinien mis à jour par le chercheur russe Vladimir Markov, mais elles sont à tout le moins significatives de la nature d’une conscience "autre" qui ne s’appuie pas sur nos paramètres.
Les sens et l’Umwelt
Imaginons un instant ce que pourrait être "l’Umwelt" d’un dauphin.
Au centre d’un réseau d’informations sensorielles qu’il ré-organise sans cesse en tant qu’images du monde, pulse un noyau de conscience conscient de lui-même.
La vision
Le monde visuel du dauphin peut être comparé à celui des espèces-proies, non prédatrices, comme le lapin ou le chevreuil, en ce sens que les champs visuels de ses yeux latéraux couvrent ensemble 360° mais qu’ils ne se chevauchent pas ou très peu.
L’absence de fibres non-croisées dans le chiasma optique suggère une plus large indépendance dans le contrôle des yeux et dans l’usage de l’information qu’ils fournissent, par rapport à ce que l’on observe chez les autres mammifères. Chacun des yeux est capable de mouvements propres, indépendants de ceux de l’autre œil et une certaine focalisation frontale peut donc être obtenue.
On peine cependant à imaginer un monde dans lequel le Soi se trouve ainsi de manière constante au centre d’un champ visuel circulaire de 360°.
Le nôtre, comme on le sait, se réduit à un cône de 120°.
Notre Soi se place juste derrière le front et les yeux, en vis-à-vis de l’objet focalisé par notre regard binoculaire et dans la ligne de fuite du cône, c’est-à-dire à peu près sur la glande pinéale. On comprend mieux dès lors la fausse intuition de René Descartes.
Incapables de distinguer le vert du rouge, les yeux des dauphins n’en sont pas moins d’une sensibilité extrême à l’instar des yeux de chat, percent l’obscurité et peuvent, d’une simple torsion de la rétine, adapter leur vision aux fonds marins ou à l’air libre. Par contre, le sens du relief leur est impossible, puisqu’ils ne sont pas binoculaires.
La "quasi-olfaction"
Le goût et l’odorat sont absents en tant que tels, remplacés par la "quasi-olfaction" qui consiste à filtrer une certaine quantité d’eau au travers de l’évent et à en goûter le parfum. Un tel sens est fondamental : le dauphin s’en sert pour repérer les femelles en rut autant que pour sentir les fèces de son groupe, nuage diffus de couleur foncée expulsé de manière régulière et qui donne à l’ensemble social une "odeur" propre.
Le toucher et le sens proprioceptif
Quiconque a jamais caressé la peau satinée d’un tursiops sait à quel point ce tissu est sensible, doux et fragile. Le sens du toucher joue lui aussi un rôle essentiel dans la vie de ces mammifères nus, qui n’aiment rien tant que de rester collés les uns contre les autres et d’échanger les caresses les plus voluptueuses.
Au niveau plus profond du sens proprioceptif, la différence avec nos perceptions s’accroît cependant encore davantage : "L’Umwelt des dauphins se fonde comme tout autre sur les caractéristiques de leur environnement" déclare Jerison, "et cet univers mental représente très certainement une adaptation cognitive optimale aux exigences environnementales du monde aquatique. A cet égard, l’un des traits principaux de cet univers marin – considéré depuis notre point de vue – est notamment l’absence d’une plate-forme stable tel que les mammifères l’éprouvent en se tenant sur la terre ferme".
Ce point est important, car le sol sur lequel nous nous tenons, le rôle essentiel de la gravité dans les adaptations anatomiques de la plupart des mammifères occupe une place centrale au plan biologique mais ne sont que rarement notées au niveau de la conscience vigile. Notre intuition s’épuise en revanche lorsque nous tentons d’imaginer les adaptations perceptuelles chez certaines espèces dont les données sensorielles sont profondément différentes des nôtres, et cela d’autant plus que nous ne sommes même pas conscients de notre propre spécificité sensorielle. Les informations relatives aux forces gravitationnelles qui s’exercent sur nos corps jouent également un rôle-clé chez le dauphin, mais d’une autre manière.
Celui-ci s’oriente en effet en "s’informant" régulièrement de la position de son corps par rapport aux fonds marins, à la surface de l’eau ou à la place du soleil au moment de l’observation.
Bien que les dauphins ne disposent d’aucun sol référentiel en guise de plate-forme fixe, mais qu’ils possèdent en revanche un degré de liberté dans les trois dimensions plus important que le nôtre, le sens de l’orientation spatiale est certainement fondamental pour eux. On peut imaginer ce que les cétacés ressentent en pensant à ces appareils d’entraînement destinés aux astronautes afin de les préparer à l’apesanteur.
Ces instruments sont de gigantesques balançoires, disposant de six degrés de liberté et permettant aux candidats pour l’espace de contrôler au mieux les diverses rotations possibles de leur axe corporel aussi bien que les mouvements de propulsion linéaire.
Si nous étions dauphins, nous nous trouverions dans un monde un peu semblable à celui d’un vol spatial à gravité zéro. Il est intéressant de noter à ce propos que l’expérience de l’apesanteur a crée chez les astronautes divers problèmes liés à cet environnement, telles que nausées, vertiges, migraines, etc. mais qu’elles n’ont cependant jamais altéré leur perception "juste" des choses.
Rappelons aussi, sans nous y étendre, à quel point la gestuelle constitue un mode de communication privilégié chez les dauphins : les degrés de liberté dont leur corps dispose leur a permis d’élaborer un véritable vocabulaire d’attitudes : ventre en l’air, en oblique, corps groupés par faisceaux, rostre au sol, caudale haute, inclinée, etc., le tout agrémenté ou non d’émissions de bulles et de vocalisations.
L’audition
Mais de tous les sens dont dispose le dauphin, c’est certainement l’audition qui est le plus développé et qui atteint des capacités discriminatoires sans aucun équivalent connu. Ce système sensoriel s’est transformé au cours des millénaires en écholocation, tout à la fois outil de connaissance (le monde externe "vu" par le son) et moyen de communication (le monde interne transmis par le langage). Cette convergence fonctionnelle ne manque pas d’entraîner des conséquences étonnantes !
D’après Harry J. Jerison : "Si le spectre auditif des dauphins est plus large que le nôtre de plusieurs octaves dans les fréquences les plus élevées, la caractéristique principale de ce système auditif est bien évidemment l’écholocation. Celle-ci pourrait contribuer à conférer au monde des dauphins une dimension inhabituelle, dépassant largement les perceptions élémentaires relatives aux événements survenant à distance. En tant qu’adaptation sensori-motrice, l’écholocation partage en effet certaines caractéristiques similaires à celles du langage humain".
Rappelons brièvement en quoi consiste cette vision acoustique d’un type inusité. Le dauphin émet en permanence – dès lors qu’il se déplace et cherche sa route activement – une série de "sons explosés" extrêmement brefs (moins d’une seconde d’émission continue). Ces "clicks" ne sont pas des sons purs mais des "bruits", d’inextricables petits paquets d’ondes situés sur des fréquences de 120 à 130 Khz et d’une puissance frisant parfois les 220 décibels. Ils retentissent sous l’eau comme une grêle de minuscules coups secs et nets enchaînés l’un à l’autre en de courtes séquences.
Les clicks sont émis sous forme d’un large faisceau, qui balaie par intermittence le sol sablonneux à la façon d’un projecteur. On peut donc dire que la nuit ou sous une certaine profondeur, le dauphin ne voit que lorsqu’il éclaire le paysage de ses éclairs sonores. Les informations reçues, assez grossières, concernent l’aspect du fond marin ou une masse importante, bateau ou autre cétacé.
Supposons à présent qu’un poisson soit repéré dans ce champ de vision "stroboscopique". Puisqu’il fait nuit, l’œil ne peut confirmer l’image en mode visuel.
Lorsque la chasse commence, le dauphin resserre alors le rayon de son biosonar et le dédouble en deux faisceaux.
Plus précis, mieux ciblés les trains de click bombardent le poisson sous tous ses angles et peuvent même pénétrer dans son corps en renvoyant l’image de ses organes internes.
Les deux trains de clicks sont produits presque simultanément, l’un à 20° à gauche de la ligne du rostre et l’autre à 20° sur la droite. Les deux rayons se chevauchent au point focal (0°) et fournissent une "visiaudition" de type, cette fois, binoculaire.
Un intervalle de 80 millièmes de seconde sépare l’émission de chacun des faisceaux, de sorte qu’en calculant le léger retard d’un écho par rapport à l’autre, le dauphin peut estimer la profondeur de champ et la distance qui le sépare de chaque élément de l’objet observé.
Se rapprochant de sa proie à toute vitesse, le dauphin n’a de cesse que de conserver le contact avec elle et multiplie la fréquence et l’intensité de ses trains de clicks, comme pour maintenir le "projecteur" allumé presque en continu.
Les ondes à haute fréquence ont une portée plus courte mais fournissent en revanche une bien meilleure définition des détails. En nageant, le dauphin opère un mouvement de balayage avec la tête avant d’obtenir une image complète de sa cible, que ses organes visuels conforteront par ailleurs.
S’il veut obtenir davantage de détails encore sur son contenu, le dauphin la bombardera alors sa cible à bout portant, d’un faisceau de clicks aussi fin et précis qu’un rayon laser.
Celui-ci pénètre la matière et en estime la densité avec une incroyable précision : la nature d’un métal (zinc plutôt que cuivre) ou des variations de l’épaisseur d’un tube de l’ordre d’un millième de millimètres sont alors parfaitement perçus par cette échographie biologique.
Une telle "vision acoustique" nous sera à tout jamais inimaginable, comme la couleur rouge l’est pour l’aveugle. Néanmoins, au prix d’une comparaison grossière, on peut mettre en parallèle la pluie d’échos que perçoivent les cétacés avec les pixels que l’œil humain perçoit sur un écran de télévision. Les pixels dessinent très rapidement une image en se succédant l’un à l’autre et laissent sur la rétine du téléspectateur une série de rémanences qui figurent le mouvement et les formes. Une scène visuelle est ainsi décodée à partir d’une séquence de taches ultra rapides surgissant sur l’écran. De la même manière, une expérience éidétique similaire est sans doute générée par les données discrètes de l’écholocation (clicks).
L’information pourrait être alors parfaitement comparable à celle que l’on obtient grâce au bombardement de photons dans le système visuel, à ceci près qu’elle parviendrait par un autre canal, en l’occurrence le canal auditif.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel