Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 102
Temps de recherche: 0.0785s

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

covid 1984

Dans un récent entretien avec Vice, le dénonciateur de la NSA, Edward Snowden, a exprimé ses inquiétudes concernant le programme de surveillance à venir, l’appelant "l’architecture de l’oppression". Nous avons demandé à Lucien Cerise son analyse du nouveau contrôle social à venir.



R/ L’état d’urgence sanitaire est-il pour vous un bon moyen pour les gouvernements mondiaux de poursuivre la réduction de nos libertés collectives et individuelles ? Pour vous, le confinement est-il un instrument d’ingénierie sociale ?



- Cet état d’urgence sanitaire est le prétexte idéal pour tenter de fabriquer le consentement des populations à une transformation du lien social sur une base transhumaniste, c’est-à-dire fondée sur un encadrement scientifique général, présentant un fort caractère carcéral et concentrationnaire, et allant dans le sens de l’artificialisation et de la réification du vivant, sa chosification, sa réduction à un objet. On peut reprendre à Michel Foucault et Giorgio Agamben la notion de biopouvoir pour décrire un pouvoir politique qui étudie la biologie, la médecine et les sciences de la vie autant que le droit ou l’économie. Le biopouvoir, qui n’est qu’une mise à jour de la notion d’eugénisme, se caractérise donc par une intrusion toujours croissante dans l’intimité physique des gens pour la modifier et surtout la contrôler.



En effet, ce qui dérange le biopouvoir, c’est la prolifération de la vie et de l’organique, impossible à contrôler totalement. Le transhumanisme est une tentative d’enfermement de l’organique dans une forme prétendument augmentée, mais surtout aseptisée, standardisée et sous contrôle, tentative de meurtre du vivant et de son aspect toujours imprévisible et débordant. Les gens normaux se refusent donc naturellement au transhumanisme. Pour parvenir à les emprisonner là-dedans malgré tout, il faut les séduire ou leur faire peur, afin de les soumettre volontairement par des manœuvres d’ingénierie sociale du type "pompier pyromane" et triangle de Karpman, consistant à exploiter les projections psycho-émotionnelles de la trilogie bourreau/victime/sauveur.



Cela commence par le déclenchement d’une crise, suivi d’une opération d’hameçonnage (phishing), c’est-à-dire un piratage de l’esprit par usurpation d’identité et abus de confiance, où le responsable de la crise, en position de "bourreau", se présente comme le "sauveur" qui va protéger les "victimes" de la crise. Quand le piratage est accompli, que le bourreau a gagné la confiance de la population victime et qu’elle s’ouvre à lui en abaissant ses défenses parce qu’elle le perçoit comme un sauveur, alors le pirate-bourreau peut passer à la deuxième phase sans rencontrer de résistance, c’est-à-dire la réécriture de l’architecture sociale selon un nouveau plan présenté comme une solution de sortie de crise. Cette restructuration du lien social consiste à prendre le contrôle des relations que les gens entretiennent librement pour les recomposer à leur place. Comment ? Cela se fait toujours en jouant sur les relations de confiance et de méfiance, afin de prendre le contrôle des relations de proximité et de distance. Avec cette crise du coronavirus, la relation à autrui et au monde est réécrite pour être fondée sur la méfiance et la paranoïa, selon une sorte de conflit triangulé généralisé, où chacun est potentiellement bourreau de chacun. Je dois apprendre à me méfier d’autrui et de la nature, avec le maintien d’une distance entre moi, autrui et le monde, et cette distance m’est dictée par le biopouvoir auquel, en revanche, je suis tenu d’accorder une confiance aveugle, au risque d’être accusé de "conspirationnisme" et d’encourir des représailles judiciaires. En résumé : pour le biopouvoir, cette crise du Covid-19 doit couper l’Histoire en deux et faire entrer l’humanité dans une nouvelle ère où l’auto-organisation du vivant sera progressivement abolie pour être entièrement subordonnée et rationalisée par un pouvoir scientifique eugéniste.



R/ La surveillance numérique de masse passe par les fameuses applications d’Apple ou de Google de contrôle sanitaire. Comment les États et les grandes multinationales de la Silicon Valley se partagent les informations et les rôles dans cette opération ?



Les États et les grandes multinationales sont toujours en fait dirigés directement ou indirectement par ce que l’on appelle le complexe militaro-industriel, qui n’est pas exclusivement américain, chaque pays possède le sien, mais celui des USA est le plus agressif. L’avant-garde de la recherche scientifique est toujours sponsorisée, surveillée et récupérée en premier lieu par les unités de "recherche et développement" militaires. Au niveau géopolitique international, tout est militarisé (weaponized, comme disent les anglophones), tout est rapport de forces, tout est volonté de puissance et relations dominant/dominé. Les applications de géolocalisation et de surveillance numérique de masse sont des outils de contrôle social, c’est-à-dire en fait de militarisation des comportements.



Nous sommes dans une guerre hybride mondiale. Par exemple, la Chine, qui est sous attaque permanente des USA et des réseaux de George Soros, a besoin de militariser et discipliner sa population par un encadrement informatique global. Afin de conserver sa souveraineté numérique et le contrôle de sa population, la Chine doit aussi prévenir et limiter les risques de piratages informatiques de l’étranger, d’où la campagne lancée par Pékin pour débarrasser totalement son parc informatique des systèmes d’exploitation étrangers, dont le plus connu est Windows de Microsoft, et développer de nouveaux systèmes d’exploitation et outils informatiques de conception chinoise et fabriqués en Chine, et qui seront dépourvus des backdoors et autres logiciels espions de la NSA.



À terme, la Chine va donc devenir un trou noir pour les services de renseignement anglophones, les Five Eyes de l’accord UKUSA et du système Echelon, et leurs associés israéliens et autres. Dans quelques années, il sera pratiquement impossible de pirater, espionner et attaquer le parc informatique chinois, qui sera beaucoup mieux sécurisé qu’aujourd’hui. Cet exemple chinois aura une forte capacité d’entraînement à l’internationale et fera des émules par effet domino en Asie et partout dans le monde. On comprend que cette émancipation chinoise de l’hégémonie numérique occidentale provoque un vent de panique de la Silicon Valley à Washington en passant par Tel-Aviv : c’est la fin du projet néoconservateur de domination mondiale. Ce qui ne veut pas dire que le gouvernement chinois va instaurer le paradis sur Terre, mais qu’il pourra certainement relâcher la surveillance de sa population quand les risques de déstabilisation de la Chine par des attaques extérieures et intérieures de cinquièmes colonnes pro-occidentales auront été jugulés.



R/ Les Français auront-ils le choix de refuser le traçage numérique ?



Pour le biopouvoir, il n’est pas prévu que nous ayons le choix. Comme beaucoup de gens, je vois les pièces du puzzle s’assembler depuis un certain temps, mais c’est l’affaire de Tarnac en 2008 qui a joué pour moi un rôle de catalyseur et m’a poussé à rédiger un texte que j’ai publié sous anonymat, Gouverner par le chaos – Ingénierie sociale et mondialisation.



J’exposais dans cet opuscule comment certaines forces politiques et économiques cherchaient à implémenter une dictature numérique au moyen d’une stratégie du choc qui pouvait être une épidémie, et je citais à l’appui de cette prospective un texte manifeste de 2004, le Livre Bleu, rédigé par le lobby du numérique en France, le GIXEL (devenu ACSIEL en 2013), dans lequel étaient exposés certains stratagèmes pour faire accepter dans l’opinion publique le développement de l’identité numérique. Dans le cadre de sa fondation ID-2020, Bill Gates élabore aussi un système d’identification numérique pour le monde entier et cherche à le vendre ainsi : à cause du coronavirus, il faut vacciner toute la planète, et nous devons tous recevoir un certificat numérique de vaccination. Plusieurs technologies de certificat numérique plus ou moins invasives sont à l’étude : dans votre Smartphone ; dans un bracelet électronique ; sur la peau sous forme de tatouage à points quantiques ; sous la peau sous forme de puces électroniques. Si finalement nous pouvons avoir le choix et échapper à ce sort, c’est parce que nous aurons remporté le rapport de forces pour dire "Non !" Tout est axé autour de la formule confinement/distanciation sociale/vaccination/surveillance électronique, dont il faut attaquer chaque point.



R/ Que nous réserve la suite des événements, selon vous ?



En fait, il faut se poser la question : comment vais-je peser sur la suite des événements ? Il faut sortir du rôle de spectateur ou d’analyste des événements, il faut créer les événements. Le biopouvoir mondialiste a de gros moyens financiers pour créer des événements au niveau international, impacter le réel et écrire l’Histoire. Il possède des millions, donc, en face, nous devons être des millions.



Nous n’avons pas le capital économique, mais nous avons le capital humain. Pour créer l’événement, impacter le réel et écrire l’Histoire contre le biopouvoir, pour faire dérailler son programme, il faut se poser deux questions concrètes : comment gagner la bataille de l’opinion publique et comment organiser les masses politiquement ?



La bataille de l’opinion publique se gagne en se formant aux méthodes de communication stratégique et d’ingénierie sociale, rhétorique et retournement de l’opinion (spin), dans le réel ou sur les réseaux sociaux, du moins tant que c’est possible, car la prochaine crise devrait être cyber et toucher Internet, comme l’a annoncé Alain Bauer. Cette grande crise cybernétique et numérique, d’ampleur géopolitique et déclenchée par un virus informatique qui provoquerait le "bug du siècle", permettra au pouvoir de couper Internet au moins partiellement, et surtout de mettre fin à la réinformation indépendante avec un bon prétexte. C’est le programme du Grand Confinement, par l’addition du confinement physique et du confinement mental – cognitif et informationnel.



Le but ultime est d’abolir toute auto-organisation du peuple, donc toute autonomie dans l’organisation horizontale de la société. Pour cela, il faut d’abord couper les gens physiquement les uns des autres dans le réel, par le confinement physique, la distanciation sociale, le télétravail, et tenter de pérenniser ce nouvel ordre social en annonçant que "plus rien ne sera comme avant", comme on nous le martèle depuis des semaines. Puis, dans un deuxième temps, au prétexte d’une crise numérique globale, le pouvoir coupera les gens les uns des autres dans le virtuel aussi, avec un Internet en mode dégradé, limité au télétravail et à quelques messageries et portails inoffensifs, usages qui seront malgré tout conservés, ce qui sera présenté comme une victoire. Il faut essayer d’imaginer l’enfer que serait un confinement physique sans Internet, c’est-à-dire sans aucun accès à la réinformation, sans aucune possibilité de comprendre ce qui se passe car nous serions enfermés physiquement à domicile, ou dans un périmètre limité, et enfermés mentalement dans la narration exclusive du pouvoir, dans une seule version des événements. Dans d’autres publications, j’ai baptisé cette fabrique de l’aliénation mentale "reality-building", car elle repose sur le principe de l’hypnose : la parole de l’hypnotiseur devient la réalité de l’hypnotisé. 



Comment cela est-il possible ? Parce que l’hypnotisé, qui n’est pas forcément endormi, n’a pas d’autre source d’information que la parole de l’hypnotiseur. Avant d’en arriver là, avant qu’il ne soit trop tard, il y a urgence à gagner le combat politique, ce qui signifie prendre le pouvoir, et ne pas se contenter des contre-pouvoirs, dans la rue ou sur Internet, qui risquent fort de devenir impraticables de toute façon. Prendre le pouvoir signifie être en capacité de se faire obéir par les forces de l’ordre. L’activité métapolitique n’est donc pas suffisante, il faut investir aussi le champ politique du pouvoir légal. Les forces de l’ordre, qui ont une capacité de contrainte sur votre corps et votre esprit, n’obéissent pas à la métapolitique mais au gouvernement et à ses représentants locaux, c’est-à-dire à l’État. Il faut donc reprendre le contrôle de l’État si nous voulons sortir de l’impuissance à laquelle la métapolitique nous limite. Ceci suppose d’organiser les masses de manière structurée dans une perspective de conquête du pouvoir, ce qui suppose à son tour, et inévitablement, de jouer le jeu quelque peu ingrat de la politique politicienne et des organisations politiques de masse.

Auteur: Cerise Lucien

Info: Sur rebellion-sre.fr, 6 mai 2020

[ géopolitique ] [ anti-mondialisme ] [ manipulation des masses ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

création

Créativité: 18 choses que les gens créatifs font différemment des autres
La créativité opère de manière mystérieuse et souvent paradoxale. La pensée créative est une caractéristique stable qui définit certaines personnalités, mais elle peut aussi changer en fonction du contexte. On a souvent l'impression que l'inspiration et les idées naissent de nulle part et qu'elles disparaissent au moment où on a le plus besoin d'elles. La pensée créative nécessite une cognition complexe qui est néanmoins complètement différente du processus de réflexion.
La neuroscience nous propose une image très complexe de la créativité. Tels que les scientifiques le comprennent aujourd'hui, la créativité est bien plus complexe que la distinction entre les parties droite et gauche du cerveau nous aurait laissé penser (en théorie, le cerveau gauche serait rationnel et analytique tandis que le cerveau droit serait créatif et émotionnel). En fait, on pense que la créativité implique un certain nombre de processus cognitifs, de voies neuronales et d'émotions, et nous ne nous représentons pas encore totalement comment l'imagination fonctionne.
Psychologiquement parlant, les types de personnalités créatives sont difficiles à repérer, car elles sont en général complexes, paradoxales et qu'elles ont tendance à éviter l'habitude ou la routine. Le stéréotype de l'"artiste torturé" n'est pas infondé - les artistes peuvent vraiment être des personnes encore plus compliquées. Une étude a montré que la créativité implique qu'une multitude de traits, de comportements et d'influences sociales soient rassemblées en une seule et unique personne.
"C'est vraiment difficile pour les personnes créatives de se connaître, car le moi créatif est plus complexe que le moi non-créatif", a déclaré Scott Barry Kaufman, un psychologue de l'Université de New York qui a passé des années à faire des recherches sur la créativité, au Huffington Post. "Les choses qui ressortent le plus sont les paradoxes du moi créatif... Les personnes imaginatives ont des esprits plus désordonnés."
S'il n'existe pas de profil créatif "typique ", on trouve cependant des caractéristiques et des comportements révélateurs chez les personnes extrêmement créatives. Voici 18 choses qu'elles font différemment.
1) Ils rêvassent
Les personnes créatives le savent bien, malgré ce que leurs professeurs ont pu leur dire: rêvasser n'est pas une perte de temps.
Selon Kaufman et la psychologue Rebecca L. McMillan, co-auteurs d'un article intitulé "Ode à la rêverie positive constructive", laisser son esprit vagabonder peut faciliter le processus de "l'incubation créative". Et bien sûr, nous savons par expérience que nos meilleures idées ont souvent l'air de sortir de nulle part, quand nous avons l'esprit ailleurs.
Bien que rêvasser semble être un acte irréfléchi, une étude parue en 2012 suggérait que cela pourrait en fait nécessiter une grande activité du cerveau - rêvasser peut entraîner des connexions et des idées soudaines parce que cette activité est liée à notre capacité à retenir une information en période de distraction. Les neuroscientifiques ont aussi découvert que rêvasser implique les mêmes processus cognitifs que ceux associés à l'imagination et la créativité.
2) Ils observent tout ce qui est autour d'eux
Le monde appartient aux personnes créatives - elles voient des possibilités partout et recueillent constamment des informations qui deviennent un prétexte à l'expression créative. Comme disait Henry James, "rien n'est perdu chez un écrivain".
L'écrivain Joan Didion avait toujours un petit cahier sur elle, et elle écrivait ses observations sur les gens et les événements qui pourraient à terme lui permettre de mieux comprendre les complexités et les contradictions de son propre esprit:
"Quand nous enregistrons ce que nous voyons autour de nous, que ce soit scrupuleusement ou non, le dénominateur commun de tout ce que nous voyons est toujours, effrontément, l'implacable 'Je'", écrivait Didion dans son essai On Keeping A Notebook.
3) Ils travaillent aux heures qui les arrangent
Beaucoup de grands artistes affirment qu'ils travaillent mieux soit très tôt le matin soit tard le soir. Vladimir Nabokov commençait à écrire dès qu'il se levait, à 6 ou 7 heures du matin, et Frank Lloyd Wright avait l'habitude de se réveiller à 3 ou 4 heures du matin et de travailler pendant quelques heures avant de se recoucher. Quel que soit le moment de la journée, les individus très créatifs finissent souvent par trouver à quelle heure leur esprit se met en route, et organisent leurs journées en fonction de cela.
4) Ils prennent le temps d'être seuls
"Afin d'être ouverts à la créativité, nous devons avoir la capacité d'un usage constructif de la solitude. Nous devons dépasser la peur d'être seul", a écrit le psychologue existentiel américain Rollo May.
Les artistes et les personnes créatives sont souvent caractérisées comme des personnes solitaires, et bien que ce ne soit pas forcément le cas, la solitude peut être le secret qui leur permet de produire leurs plus belles oeuvres. Pour Kaufman, ceci est en lien avec le fait de rêvasser - nous avons besoin de moments de solitude, simplement pour permettre à nos esprits de vagabonder.
"Vous devez rester en connexion avec ce monologue intérieur afin de pouvoir l'exprimer", affirme-t-il. "Il est difficile de trouver cette voix créatrice en vous si vous ne restez pas en connexion avec vous-même et que vous ne réfléchissez pas à ce que vous êtes."
5) Ils contournent les obstacles de la vie.
Une grande partie des histoires et des chansons les plus emblématiques ont été inspirées par des douleurs poignantes et des chagrins déchirants - et le seul réconfort que l'on peut trouver dans ces épreuves, c'est qu'elles ont sans doute été à l'origine de créations artistiques majeures. Un nouveau domaine de psychologie appelé la croissance post-traumatique suggère que beaucoup de gens sont capables de transformer leurs épreuves et les traumatismes de leur enfance en un développement créatif important. Précisément, les chercheurs montrent que le traumatisme peut aider les gens à développer les domaines des relations interpersonnelles, de la spiritualité, de l'appréciation de la vie, ou encore de la force personnelle, et - ce qui importe le plus pour la créativité - leur permettre d'entrevoir de nouvelles possibilités de vie.
"Beaucoup de gens sont capables d'utiliser cela comme un moteur qui leur permet d'imaginer des perspectives différentes de la réalité", assure Kaufman. "Ce qu'il se passe, c'est que leur vision du monde comme étant un lieu sûr a été brisée à un moment de leur vie, les forçant à aller aux extrémités et voir les choses sous un nouveau jour - et cela favorise la créativité."
6) Ils sont à la recherche de nouvelles expériences
Les personnes créatives adorent s'exposer à de nouvelles expériences ou sensations et à de nouveaux états d'esprit - et cette ouverture est un indicateur important de la production créatrice.
"L'ouverture à l'expérience est toujours l'indicateur le plus fort de la réalisation créative", explique Kaufman. "Cela comprend beaucoup de facettes différentes, mais elles sont toutes reliées entre elles : la curiosité intellectuelle, la recherche du frisson, l'ouverture aux émotions, l'ouverture au fantasme. Ce qui les rassemble, c'est la quête d'une exploration cognitive et comportementale du monde, aussi bien votre monde intérieur et votre monde extérieur."
7) Ils "échouent"
La persévérance est presque une condition préalable au succès créatif, selon Kaufman. Faire un travail créatif est souvent décrit comme un processus qui consiste à échouer à maintes reprises jusqu'à ce que vous trouviez quelque chose qui convienne, et les personnes créatives - du moins celles qui réussissent - apprennent à ne pas considérer l'échec comme quelque chose de personnel. "Les personnes créatives échouent et celles qui sont vraiment douées échouent souvent", a écrit Steven Kotler, un contributeur de Forbes, dans un article sur le génie créatif d'Einstein.
8) Ils posent les bonnes questions
Les personnes créatives ont une curiosité insatiable - ils choisissent généralement de vivre la vie examinée, et même quand ils vieillissent, ils maintiennent une curiosité au sujet de la vie. Que ce soit au cours d'une conversation passionnée ou d'un moment de rêvasserie solitaire, les personnes créatives regardent le monde qui les entoure et veulent savoir pourquoi, et comment, les choses sont ainsi.
9) Ils observent les gens
Observateurs de nature et curieux d'en savoir plus sur la vie des autres, les personnes créatives aiment souvent observer les gens - et leurs meilleures idées peuvent provenir de cette activité.
"Marcel Proust a passé une grande partie de sa vie à observer les gens, et il écrivait ses observations qui ressortaient finalement dans ses livres", affirme Kaufman. "Pour beaucoup d'écrivains, observer les gens est très important ... Ils sont de très bons observateurs de la nature humaine."
10) Ils prennent des risques
Prendre des risques fait partie du travail créatif, et beaucoup de personnes créatives adorent prendre des risques dans de différents aspects de leurs vies.
"Il y a une connexion sérieuse et profonde entre la prise de risques et la créativité, qui est rarement prise en compte", a écrit Steven Kotler pour Forbes. "La créativité est l'action de produire quelque chose à partir de rien. Cela nécessite de rendre public ces paris que l'on a d'abord fait dans sa tête. Ce n'est pas un travail pour les timides. Du temps perdu, une réputation salie, de l'argent mal dépensé - tout cela découle d'une créativité qui est allée de travers."
11) Pour eux, tout devient une occasion de s'exprimer
Nietzsche estimait que la vie et le monde devraient être vus comme des oeuvres d'arts. Les personnes créatives ont peut-être plus tendance à voir le monde de cette façon, et à chercher constamment des occasions de s'exprimer dans la vie de tous les jours.
"L'expression créative est de l'expression individuelle", affirme Kaufman. "La créativité n'est rien de plus qu'une expression individuelle de vos besoins, de vos désirs et de votre singularité."
12) Ils réalisent leurs vraies passions
Les personnes créatives ont tendance à être intrinsèquement motivés - c'est-à-dire que leur motivation à agir vient d'un désir interne, plutôt que d'un désir de reconnaissance extérieure ou de récompense.
Les psychologues ont démontré que les personnes créatives trouvent leur énergie dans les activités difficiles, signe de leur motivation intrinsèque, et les chercheurs suggèrent que le fait de simplement penser à des raisons intrinsèques lorsqu'on fait une activité peut suffire à booster la créativité.
"Les créateurs éminents choisissent et deviennent passionnément impliqués dans des problèmes difficiles et risqués qui leur procure une sensation de pouvoir découlant de leur capacité à utiliser leurs talents", écrivent M.A. Collins and T.M. Amabile dans The Handbook of Creativity.
13) Ils sortent de leur propre tête
Kaufman soutient que l'autre objectif de la rêvasserie est de nous aider à sortir de nos propres perspectives limitées et d'explorer d'autres façons de penser, qui peuvent être un atout important pour le travail créatif.
"Rêvasser nous permet d'oublier le présent", explique Kaufman. "Le réseau cérébral associé à la rêvasserie est le même réseau cérébral qui est associé à la théorie de l'esprit - j'aime l'appeler 'le réseau cérébral de l'imagination' - cela vous permet d'imaginer votre futur, mais cela vous permet aussi d'imaginer ce qu'un autre est en train de penser."
Les chercheurs suggèrent aussi que provoquer la "distance psychologique" - c'est-à-dire, réfléchir à une question comme si elle était irréelle ou inconnue, ou alors sous la perspective d'une autre personne - peut stimuler la pensée créative.
14) Ils perdent la notion du temps.
Les personnes créatives se rendent compte que lorsqu'elles écrivent, dansent, peignent ou s'expriment d'une autre manière, elles entrent "dans la zone", c'est-à-dire "en transe", ce qui peut les aider à créer à un grand niveau. La transe est un état mental qui se produit quand un individu dépasse la pensée consciente pour atteindre un état plus intense de concentration facile et de sérénité. Quand une personne est dans cet état, elle ne craint quasiment aucune pression interne ou externe ni les distractions qui pourraient gêner sa performance.
Vous entrez en transe quand vous pratiquez une activité dans laquelle vous êtes bon mais qui vous met aussi au défi - comme tout projet créatif.
"[Les personnes créatives] ont trouvé la chose qu'ils aiment, mais ils ont aussi acquis la compétence qui leur permet d'entrer en transe", explique Kaufman. "L'état de transe nécessite une concordance entre votre compétence et la tâche ou l'activité dans laquelle vous vous êtes lancé."
15) Ils s'entourent de beauté.
Les personnes créatives ont tendance à avoir d'excellents goûts: ils aiment donc être entourés de beauté. Une étude récemment publiée dans le journal Psychologie de l'esthétique, créativité, et les arts montre que les musiciens - que ce soit des musiciens d'orchestre, des professeurs de musique ou des solistes - ont une haute sensibilité et une haute réceptivité à la beauté artistique.
16) Ils relient les points.
Si une chose distingue les personnes très créatives des autres, c'est bien la capacité d'entrevoir des possibilités là où les autres n'en voient pas - ou, dans d'autres termes, la vision. Beaucoup de grands artistes et d'écrivains ont déclaré que la créativité est simplement la capacité à relier des points que les autres n'auraient jamais pensé à relier.
Selon les dires de Steve Jobs:
"La créativité, c'est simplement établir des connexions entre les choses. Quand vous demandez aux personnes créatives comment elles ont réalisé telle ou telle chose, elles se sentent un peu coupables parce qu'elles ne l'ont pas vraiment réalisé, elles ont juste vu quelque chose. Cela leur a sauté aux yeux, tout simplement parce qu'elles sont capables de faire le lien entre les différences expériences qu'elles ont eu et de synthétiser les nouvelles choses.
17) Elles font bouger les choses.
La diversité des expériences, plus que n'importe quoi d'autre, est essentielle à la créativité, selon Kaufman. Les personnes créatives aiment faire bouger les choses, vivre de nouvelles choses, et surtout éviter tout ce qui rend la vie plus monotone ou ordinaire.
"Les personnes créatives ont une plus grande diversité d'expériences, et l'habitude est l'ennemi de la diversité des expériences", affirme Kaufman.
18) Ils consacrent du temps à la méditation.
Les personnes créatives saisissent la valeur d'un esprit clair et concentré - parce que leur travail en dépend. Beaucoup d'artistes, d'entrepreneurs, d'écrivains et autres créateurs, tels que David Lynch, se sont tournés vers la méditation afin d'avoir accès à leur état d'esprit le plus créatif.
Et la science soutient l'hypothèse qui affirme que la méditation peut réellement stimuler votre force intellectuelle de différentes manières. Une étude hollandaise parue en 2012 montrait que certaines techniques de méditation peuvent encourager la pensée créative. Et les pratiques de méditation ont aussi un impact sur la mémoire, la concentration et le bien-être émotionnel. Elles permettent aussi de réduire le stress et l'anxiété, et d'améliorer la clarté d'esprit - et ainsi conduire à de meilleures pensées créatives.

Auteur: Gregoire Carolyn

Info: The Huffington Post mars 2014

[ égoïsme ]

 

Commentaires: 0

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

Gaule 2023

Marianne : Comment avez-vous perçu le mouvement social de contestation à la réforme des retraites ?

E.T. :
 Je suis allé en manifestation. Du mouvement de contestation, j'ai constaté la masse, l’énergie, la jeunesse. Je tiens à dire ce que je pense de la responsabilité des uns et des autres concernant le désordre actuel, tout d'abord. Pour moi – je dis bien pour moi – mais ça sera aux juristes de trancher, il est clair qu'en faisant passer une réforme des retraites en loi de finances rectificative et par l'article 49.3, Emmanuel Macron et Élisabeth Borne sont sortis de la Constitution, du moins de l'esprit de la Constitution. Ce sera au Conseil constitutionnel de le dire. Mais il n'est pas certain que j'accepte l'avis du Conseil constitutionnel, s’il valide Macron-Borne.

J'ai vu les commentaires, le soir, sur BFM TV, LCI et d'autres, où l’on parlait de feux de poubelle. Pour moi, 100 % de la responsabilité de ces feux de poubelle incombe au président de la République française et la question de savoir si ce sont plus les black blocks ou les manifestants qui les ont allumés ne m'intéresse pas.

Pourquoi Emmanuel Macron entretiendrait-il ce désordre ?

Ce qui m'étonne le plus, moi, c'est que c'est un désordre qui ne sert à rien. En général, quand on gouverne par le désordre pour faire se lever le parti de l’ordre, c’est qu’on veut consolider un pouvoir fragile, ou bien pour reprendre le pouvoir. Mais Macron avait le pouvoir. La vérité de ce projet de réforme des retraites, en dehors du fait qu’il est injuste et incohérent, c’est qu’il est insignifiant et inutile par rapport aux problèmes réels de la société française.

Il y en a deux : la désindustrialisation et la chute du niveau de vie, liée à l’inflation. La question qui se pose et ce qu’il faut analyser vraiment, c’est la raison de cette mise en désordre de la France par son président, pour rien. Était-ce pour mener à bien un projet néolibéral, appelé "réformateur" ? Ou est-ce que c’est un problème lié à la personnalité de Macron lui-même ?

Commençons par l’hypothèse d’une réforme pensée comme juste par Macron. Vous la jugez néolibérale ?

La réalité du monde occidental, qui entre en guerre, c’est que le néolibéralisme, en tant qu’idéologie économiste active transformant la planète, est en train de mourir parce que ses effets ultimes se révèlent. La mortalité augmente aux États-Unis, et donc, logiquement, l’espérance de vie baisse. Les États-Unis ont perdu leur base industrielle, comme l’Angleterre. Le contexte historique général en ce moment, dans le monde américain, est plutôt aux réflexions sur le retour de l’État entrepreneur.

Macron avait pourtant engagé un tournant néo-protectionniste avec le Covid…

Non ! Je pense que Macron est néolibéral archaïque, et donc en grand état de déficit cognitif. Quand il parle de protectionnisme, il n’est même pas capable de dire s’il s’agit de protectionnisme national ou européen. Mais si tu ne fixes pas d’échelle, tu ne parles de rien. Quand il parle de réindustrialisation, il n’est pas capable de voir que la réindustrialisation implique deux actions simultanées. D’abord, l’investissement direct de l’État dans l’économie. C’est ça qui serait important actuellement, pas la réforme des retraites. Et puis des mesures de protection des secteurs qu’on refonde, par exemple dans les médicaments, dans la fabrication de tel ou tel bien essentiel à la sécurité informatique, alimentaire et énergétique de la France.

C’est d’ailleurs l’une des choses stupéfiantes dans ce débat sur les retraites : les politiques légifèrent – croient-ils – sur des perspectives à long terme d’équilibre. Ils spéculent sur des années de travail qui vont couvrir des décennies pour la plupart des gens, sans se poser la question de ce qui restera, non pas comme argent, comme signes monétaires, mais comme bien réels produits pour servir ces retraites en 2050 ou 2070.

Les retraites sont menacées, c’est vrai, mais par la désindustrialisation. Quel que soit le système comptable, si la France ne produit plus rien le niveau des retraites réelles de tout le monde va baisser. En dehors du fait qu'il a déjà commencé à baisser avec l'inflation.

Notre élite économique fait, selon vous, une fois de plus fausse route.

Notre président et les gens autour de lui, une sorte de pseudo-intelligentsia economico-politique, sont hors du monde. À une époque, on savait que pour faire la guerre, il fallait des biens industriels, des ingénieurs, des ouvriers. On redécouvre aujourd’hui à Washington et à Londres que tout ça n’existe plus assez ! Les faucons néoconservateurs croyaient qu’on pouvait faire la guerre à la Russie avec des soldats ukrainiens et à la Chine en prime, grâce au travail d’ouvriers… chinois ! La réalité du néolibéralisme, c'est qu’il a tout détruit au cœur même de son Empire. Le vrai nom du néolibéralisme, c'est "nihilisme économique". Je me souviens de phrases prophétiques de Margaret Thatcher disant "There is no such thing as society ", ou "There is no alternative" (TINA). Ces idioties ne sortent pas du libéralisme britannique, de John Locke ou d'Adam Smith, mais bien plutôt du nihilisme russe du XIXe siècle.

Cette réforme des retraites à contretemps est guidée par un phénomène d'inertie, au nom d’une idéologie qui est en train de mourir. Le discours néolibéral est un discours de la rationalité économique, un discours de la rationalité des marchés qui va permettre de produire, en théorie, plus d'efficacité. Je vais vous dire l’état de mes recherches sur le nihilisme néolibéral : cette passion de détruire les cadres de sécurité établis au cours des siècles par les religions, les États et les partis de gauche. Le nihilisme néolibéral détruit la fécondité du monde avancé, la possibilité même d’un futur. Et vous allez être fier de cette France dont les néolibéraux rient.

Vous faites partie de ceux qui voient dans les indices de fécondité l'avenir de l'Occident…

La vérité historique fondamentale actuelle, c’est que la rationalité individualiste pure détruit la capacité des populations à se reproduire et des sociétés à survivre. Pour faire des enfants, particulièrement dans les classes moyennes qui veulent pour eux des études longues, il faut l’aide de la collectivité, il faut se projeter dans un avenir qui ne peut apparaître suffisamment sûr que grâce à l’État. Il faut donc sortir de la rationalité économique à court terme. Sans oublier que décider d’avoir un enfant, ce n’est être ni rationnel, ni parfois même raisonnable, mais vivant. Je sais qu'il y a des gens qui s'inquiètent de l'augmentation de la population mondiale, mais moi, je suis inquiet de la sous-fécondité de toutes les régions "avancées". Même les États-Unis, même l'Angleterre, sont tombés à 1,6 enfant par femme. L’Allemagne est à 1,5, le Japon est à 1,3. La Corée, chouchou des majorettes intellectuelles du succès économique, le pays de Samsung et d'une globalisation économique assumée, est à 0,8. … Le plus efficace économiquement est le plus suicidaire.

C'est là que la France redevient vraiment intéressante. Elle a deux caractéristiques. C'est d’abord le pays qui fait le moins bien ses "réformes", qui refuse le plus le discours de la rationalité économique. Dont l'État n'est jamais dégrossi comme le rêvent les idéologues du marché. Mais c'est aussi le seul pays avancé qui garde une fécondité de 1,8. C'est le pays qui, en ne voulant pas toutes ces réformes, a refusé la destruction de certaines des structures de protection des individus et des familles qui permettent aux gens de se projeter dans le futur et d'avoir des enfants. Une retraite jeune, ce sont aussi des grands-pères et des grands-mères utilisables pour des gardes d’enfants ! Désolé d’apparaître en être humain plutôt qu’en économiste ! La grandeur de la France, c'est son refus de la rationalité économique, son refus de la réforme. Ce qui fait de la France un pays génial, c'est son irrationalité économique. On saura si Macron a réussi s'il arrive à faire baisser la natalité française au niveau anglo-américain, au-delà de son cas personnel de non-reproduction.

Comment ce dernier peut-il alors imposer une telle réforme si c'est contre l'intérêt du pays ?

Pourquoi un président de la République en si grand état de déficit cognitif peut-il imposer cette réforme injuste, inutile et incohérente par un coup de force institutionnel ou même un coup d’État ? Parce qu’il agit dans un système sociopolitique détraqué que je qualifierais même de pathologique. Il y avait une organisation de la République qui reposait sur une opposition de la droite et de la gauche, permise par un mode de scrutin adapté : le scrutin uninominal majoritaire à deux tours. Il faisait qu’au premier tour, on choisissait son parti de droite préféré, son parti de gauche préféré. Au deuxième tour, les deux camps se regroupaient et on avait une très belle élection.

Tout a été dévasté par la nouvelle stratification éducative de la France. La montée de l’éducation supérieure a produit une première division en deux de la société entre les gens qui ont fait des études et ceux qui n’en ont pas fait. C’est le modèle qui s’impose partout dans le monde développé. Mais il y a une autre dimension qui, il faut l’avouer, n’a pas grand-chose à voir : le vieillissement de la population et l’apparition d’une masse électorale âgée, qui établissent un troisième pôle, les vieux, dont je suis. Cette société stratifiée et vieillie a accouché de trois pôles politiques qui structurent le système. Je simplifie jusqu’à la caricature : 1) les éduqués supérieurs mal payés, plutôt jeunes ou actifs, se sont dirigés vers Mélenchon ou la Nupes ; 2) les moins éduqués mal payés, plutôt jeunes et actifs, vers le RN ; 3) les vieux, derrière Macron.

Ils sont les seuls à soutenir la réforme des retraites, d’ailleurs…

Ce système est dysfonctionnel, "détraqué", à cause de l’opposition viscérale entre les électorats contestataires de gauche et de droite, Nupes et RN. Ces deux électorats ont en commun leur niveau de vie, leur structure d’âge, mais sont séparés par l’éducation et par la question de la nation et de l’immigration. Cette fracture conduit à une incapacité des uns et des autres à se considérer comme mutuellement légitimes. Leur opposition permet à Macron et aux vieux de régner. Les retraités peuvent donc imposer une réforme des retraites qui ne les touche pas. Le problème, c’est qu’une démocratie ne peut fonctionner que si les gens opposés se considèrent comme certes différents, mais mutuellement légitimes.

La France vire-t-elle à la gérontocratie ?

On a enfermé les jeunes pour sauver les gens de ma génération. Comment la démocratie est-elle possible avec un corps électoral qui vieillit sans cesse ? Mais dénoncer un système gérontocratique ne suffit pas, d’un point de vue anthropologique en tout cas. Ce qu’il faut dénoncer, c’est une société qui ne peut survivre. Une société humaine ne peut pas se projeter dans l’avenir si on part du principe que les ressources doivent remonter vers les vieux plutôt que descendre vers les jeunes.

La question institutionnelle fondamentale, ce n’est pas tant le pouvoir disproportionné du président dans la conception de la Ve République, mais un système électoral inadapté dans un contexte où les deux forces d’opposition refusent d’exister l’une pour l’autre. Il y a deux solutions : la première est le passage au mode de scrutin proportionnel. Mais cela ne se produira pas car la gérontocratie en place a trop intérêt à ce que le système dysfonctionne. L’autre solution, c’est de trouver une voie politique qui permette le sauvetage de la démocratie : je propose un contrat à durée limitée réconciliant les électorats du Rassemblement national et de la Nupes pour établir le scrutin proportionnel.

Mais comment les réconcilier ?

Je considère vraiment que ce qui se passe est inquiétant. J’ai un peu de mal à imaginer que cela ne se termine pas mal. Il y a un élément d’urgence, et la simple menace de désistement implicite ou explicite entre les deux forces d’opposition calmerait beaucoup le jeu. Il ferait tomber le sentiment d’impunité de la bureaucratie qui nous gouverne.

Le problème fondamental n’est pas un problème entre appareils. Le problème fondamental est un problème de rejet pluriel. 1) L’électorat du Rassemblement national est installé dans son rejet de l’immigration, un concept qui mélange l’immigration réelle qui passe aujourd’hui la frontière et la descendance de l’immigration ancienne, les gosses d’origine maghrébine qui sont maintenant une fraction substantielle de la population française. 2) L’électorat de LFI et de la Nupes croit seulement exprimer un refus du racisme du RN mais il exprime aussi, à l’insu de son plein gré, un rejet culturel de l’électorat du RN. Il vit un désir à la Bourdieu de distinction. Simplifions, soyons brutal, il s’agit de sauver la République : il y a d’un côté une xénophobie ethnique et de l’autre une xénophobie sociale.

J’ai un peu de mal à imaginer que le sauvetage à court terme de la démocratie par l’établissement de la proportionnelle, via un accord à durée limitée entre Nupes et RN, puisse se passer d’un minimum de négociation sur la question du rapport à l’étranger. La seule négociation possible, la seule chose raisonnable d’ailleurs du point de vue de l’avenir du pays, c’est que les électeurs de la Nupes admettent que le contrôle des frontières est absolument légitime et que les gens du Rassemblement national admettent que les gens d’origine maghrébine en France sont des Français comme les autres. Sur cette base, à la fois très précise et qui admet du flou, on peut s’entendre.

Le contexte actuel reproduit-il celui de l’époque des Gilets jaunes ?

"La police tape pour Macron, mais vote pour Le Pen", disais-je en 2018 au moment des Gilets jaunes… Je m’inquiétais de la possibilité d’une collusion entre les forces de ce que j’appelais à l’époque l’aristocratie stato-financière et l’autoritarisme implicitement associé à la notion d’extrême droite. J’avançais le concept de macrolepénisme. Le Rassemblement national aujourd’hui est confronté à une ambivalence qu’il doit lever. Le contexte actuel reproduit le contexte de l’époque des Gilets jaunes, en effet : d’un côté le Rassemblement national passe des motions de censure contre la politique gouvernementale sur les retraites (et je trouve tout à fait immoral que LFI refuse de voter les motions du Rassemblement national sur ces questions), mais, d’un autre côté, c’est, comme d’habitude, la police qui cogne sur les manifestants, qui est utilisée par Macron, qui continue de voter à plus de 50 % pour le Rassemblement national ! J’ajoute que le choix par Marine Le Pen de l’opposition à la grève des éboueurs n’est pas de bon augure.

Le Rassemblement national ne peut pas rester dans cette ambiguïté : il suffirait d’un petit mot de modération de Marine Le Pen pour que le comportement de la police change. Ce que je dis est grave : en mode démocratique normal, une police doit obéir au ministre de l’Intérieur. Mais je ne vois pas pourquoi une police appliquerait aveuglément les consignes de violence d’un président qui est sorti de la Constitution. Nous avons besoin d’une réflexion approfondie des juristes. Il s’agit de protéger les institutions dans un contexte extrêmement bizarre. Le conflit entre jeunes manifestants et jeunes policiers nous ramène d’ailleurs à la question du rejet mutuel Nupes/RN. L’hostilité qu’encourage le gouvernement entre la police et les jeunes manifestants est une menace pour l’équilibre du pays. On ne peut pas vivre dans un pays avec deux jeunesses qui se tapent dessus. Il y a dans le style policier violent Macron-Borne-Darmanin quelque chose de pensé et de pervers.

Vous dites que la première raison de l’obstination du gouvernement pourrait venir de l’esprit de Macron directement…

J’ai parlé de système électoral, j’ai parlé de néolibéralisme. J’ai parlé du déficit cognitif néolibéral de Macron. Une autre chose doit être évoquée, non systémique, accidentelle, dont je n’aime pas parler mais dont on doit parler : une autre raison de la préférence de Macron pour le désordre et la violence est sans doute un problème de personnalité, un problème psychologique grave. Son rapport au réel n’est pas clair. On lui reproche de mépriser les gens ordinaires. Je le soupçonne de haïr les gens normaux. Son rapport à son enfance n’est pas clair. Parfois, il me fait penser à ces enfants excités qui cherchent la limite, qui attendent d’un adulte qu’il les arrête. Ce qui serait bien, ce serait que le peuple français devienne adulte et arrête l’enfant Macron.

La situation est extrêmement dangereuse parce que nous avons peut-être un président hors contrôle dans un système sociopolitique qui est devenu pathologique. Au-delà de toutes les théories, sophistiquées ou non, j’en appelle à tous les gens pacifiques, moraux et raisonnables, quel que soit leur niveau éducatif, leur richesse, leur âge, à tous les députés quel que soit leur parti, Renaissance compris, j’en appelle au Medef, aux pauvres, aux inspecteurs des finances, aux vieillards et aux oligarques de bonne volonté, pour qu’ils se donnent la main et remettent ce président sous contrôle. La France vaut mieux que ce bordel. 



 

Auteur: Todd Emmanuel

Info: Marianne.net, 5 mars 2023, Interview Par Etienne Campion

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

néo-darwinisme

Pour décoder la manipulation ou le marketing viral : la mémétique

Qu’y a-t-il de commun entre un drapeau de pirates, la chanson Happy birthday to you, un crucifix, des sigles courants (TV, USA, WC...), un jeu de Pokémon, un panneau stop, une histoire belge bien connue et le logo de Nike ? Ce sont des mèmes. C’est à dire des “entités réplicatives d’informations”, autrement dit des codes culturels qui, par imitation ou contagion, transmettent des solutions inventées par une population. Quand vous faites du marketing viral ou du lobbying, quand la télévision manipule votre “temps de cerveau humain disponible” à des fins commerciales ou idéologiques, vous êtes sans le savoir dans le champ de la mémétique comme M. Jourdain était dans celui de la prose.

La vraie vie n’est pas seulement faite de ce qu’on apprend à l’école ou à l’université... Les relations entre spécialités sont au moins aussi utiles que l’approfondissement d’une expertise spécifique... Ce n’est pas parce qu’une discipline n’a pas (encore) de reconnaissance académique qu’elle n’est pas sérieuse... Surtout quand la connaissance évolue plus vite que les mentalités, quand le fossé se creuse entre théorie et pratique, quand l’académisme dépend de normes formelles ou de chasses gardées plus que du progrès de la civilisation... La mémétique en est un bon exemple qui, malgré sa valeur scientifique et son utilité sociale, est méprisée comme ont pu l’être ses ancêtres darwiniens. Dommage, car si elle était mieux connue, nous serions moins faciles à manipuler.

LA MÉMÉTIQUE, C’EST SÉRIEUX !

Le mème est à la culture ce que le gène est à la nature. L’Oxford English Dictionary le définit comme un élément de culture dont on peut considérer qu’il se transmet par des moyens non génétiques, en particulier par l’imitation. Il a pour habitat ou pour vecteur l’homme lui-même ou tout support d’information. Dans les années 1970, des chercheurs de différentes disciplines s’interrogeaient sur la possible existence d’un équivalent culturel de l’ADN*. C’est en 1976, dans Le gène égoïste, que l’éthologiste Richard Dawkins baptisa le mème à partir d’une association entre gène et mimesis (du grec imitation), suggérant aussi les notions de mémoire, de ressemblance (du français même), de plus petite unité d’information. “Bref, un mot génial, bien trouvé, imparable. Un pur réplicateur qui s’ancre davantage dans votre mémoire chaque fois que vous essayez de l’oublier !” (Pascal Jouxtel).

La mémétique applique à la culture humaine des concepts issus de la théorie de l’évolution et envisage une analogie entre patrimoines culturels et génétique : il y a variation (mutation), sélection et transmission de codes culturels qui sont en concurrence pour se reproduire dans la société. Cette réplication a un caractère intra- et inter-humain. Elle dépend de la capacité du mème à se faire accepter : vous l’accueillez, l’hébergez, le rediffusez parce que vous en tirez une gratification aux yeux d’autrui, par exemple en termes d’image (vous avez le 4x4 vu à la télé), de rareté (il a une carte Pikatchu introuvable) ou autre avantage relationnel (petits objets transactionnels attractifs). Elle est stimulée par les technologies de l’information, qui renforcent le maillage des flux échangés et les accélèrent : la réplication est plus forte par les mass media (cf. les codes véhiculés par les émissions de téléréalité) et sur les réseaux (SMS ou Internet) que dans une société moins médiatisée où les flux sont moins foisonnants. 

On ne démontrera pas en quelques lignes la valeur ou l’intérêt de cette science, mais un ouvrage le fait avec talent : Comment les systèmes pondent, de P. Jouxtel (Le Pommier, Paris, 2005). On se bornera ici à extraire de ce livre un complément de définition : “la mémétique revendique une forme d’autonomie du pensé par rapport au penseur, d’antériorité causale des flux devant les structures, et se pose entre autres comme une science de l’auto-émergence du savoir par compétition entre les niveaux plus élémentaires de la pensée... Transdisciplinaire par nature, la mémétique est une branche extrême de l’anthropologie sociale croisée avec des résultats de l’intelligence artificielle, des sciences cognitives et des sciences de la complexité. Elle s’inscrit formellement dans le cadre darwinien tout en se démarquant des précédentes incursions de la génétique dans les sciences humaines classiques, comme la sociobiologie ou la psychologie évolutionniste, et s’oppose radicalement à toute forme vulgaire de darwinisme social”.

RESTER DANS LE JEU, JOUER À CÔTÉ OU AGIR SUR LE JEU ?

Jouxtel veut aussi promouvoir en milieu francophone une théorie qui y est un peu suspecte, coupable d’attaches anglo-saxonnes, masi qui pourtant trouve ses racines dans notre héritage culturel : autonomie du pensé, morphogenèse (apparition spontanée de formes élémentaires), évolution darwinienne dans la sphère immatérielle des concepts (Monod)... Le rejet observé en France tient aussi au divorce qu’on y entretient entre sciences sociales et sciences naturelles ou à la méfiance vis-à-vis de certains aspects de l’algorithme évolutionnaire (mutation, sélection, reproduction), en particulier “on fait une confusion terrible en croyant que la sélection s’applique aux gens alors qu’elle ne s’applique qu’aux règles du jeu”. De fait, cette forme d’intégration de la pensée s’épanouit mieux dans des cultures favorisant l’ouverture et les échanges que dans celles qui s’attachent à délimiter des territoires cloisonnés. Mais conforter notre fermeture serait renoncer à exploiter de précieuses ressources. Renoncer aussi à apporter une contribution de la pensée en langue française dans un champ aussi stratégique. Donc également renoncer à y exercer une influence.

Outre les enjeux de l’acceptation et des développements francophones de cette science, quels sont ceux de son utilisation ? De façon générale, ce sont des enjeux liés au libre-arbitre et à l’autonomie de la personne quand il s’agit de mettre en évidence les codages sous-jacents de comportements sociaux ou de pratiques culturelles. L’image du miroir éclaire cette notion : on peut rester dans la pièce en croyant que c’est là que se joue le jeu, ou passer derrière le miroir et découvrir d’autres dimensions - c’est ce que la mémétique nous aide à faire. De même dans le diaporama Zoom arrière (www.algoric.com/y/zoom.htm) où, après des images suggérant une perception de premier degré (scène du quotidien dans une cour de ferme), on découvre que la situation peut comporter d’autres dimensions... Plus précisément, pour illustrer l’utilité opérationnelle de la mémétique, on pourra regarder du côté des thèmes qui alimentent régulièrement cette chronique - innovation, marketing, communication stratégique, gouvernance... - autour de trois cas de figure : on peut jouer dans le jeu (idéal théorique souvent trahi par les joueurs), jouer à côté du jeu (égarés, tricheurs) ou agir sur le jeu (en changeant de niveau d’appréhension).

D’AUTRES DEGRÉS SUR LA PYRAMIDE DE MASLOW ?

Une analogie avec la pyramide de Maslow montre comment une situation peut être abordée à différents niveaux. Nos motivations varient sur une échelle de 1 (survie) à 5 (accomplissement) selon le contexte et selon notre degré de maturité. Ainsi, un marketing associé à l’argument mode ou paraître - voiture, téléphone, etc. - sera plus efficace auprès des populations visant les niveaux intermédiaires, appartenance et reconnaissance, que chez celles qui ont atteint le niveau 5. De même pour ce qui nous concerne ici : selon ses caractéristiques et son environnement, une personne ou un groupe prend plus ou moins de hauteur dans l’analyse d’une situation - or, moins on s’élève sur cette échelle, plus on est manipulable, surtout dans une société complexe et différenciée. Prenons par exemple la pétition de Philip Morris pour une loi anti-tabac. Quand j’invite un groupe à décoder cette initiative surprenante, j’obtiens des analyses plus ou moins distanciées, progressant de la naïveté (on y voit une initiative altruiste d’un empoisonneur repenti) à une approche de second degré (c’est un moyen d’empêcher les recours judiciaires de victimes du tabac) ou à une analyse affinée (lobbying de contre-feu pour faire obstacle à une menace plus grave). Plus on s’élève sur cette échelle, plus on voit de variables et plus on a de chances d’avoir prise sur le phénomène analysé. Une approche mémétique poursuivra la progression, par exemple en trouvant là des mèmes pondus par le “système pro-tabac” pour assurer sa descendance, à l’instar de ceux qu’il a pondus au cinéma pendant des années en faisant fumer les héros dans les films.

Il est facile de traiter au premier degré les attentats du 11 septembre 2001, par exemple en y voyant une victoire des forces de libération contre un symbole du libéralisme sauvage ou une attaque des forces du mal contre le rempart de la liberté - ce qui pour les mèmes revient au même car ce faisant, y compris avec des analyses un peu moins primaires, on alimente une diversion favorisant l’essor de macro-systèmes : “terrorisme international”, “capitalisme financier” ou autres. Ceux-ci dépassent les acteurs (Bush, Ben Laden...), institutions (Etat américain, Al-Qaida...) ou systèmes (démocratie, islamisme...), qui ne sont que des vecteurs de diffusion de mèmes dans un affrontement entre macro-systèmes.

QUAND CE DONT ON PARLE N’EST PAS CE DONT IL S’AGIT...

Autre cas intéressant de réplicateurs : les traditionnelles chaînes de l’amitié, consistant à manipuler un individu en exploitant sa naïveté, avec un emballage rudimentaire mais très efficace auprès de celui qui manque d’esprit critique : si tu brises la chaîne les foudres du ciel s’abattront sur toi, si tu la démultiplies tu connaîtras le bonheur, ou au moins la prospérité. On n’y croit pas, mais on ne sait jamais... Internet leur a donné une nouvelle vie - nous avons tous des amis pourtant très fréquentables qui tombent dans le piège et essaient de nous y entraîner ! - et a affiné la perversité de la manipulation avec les hoax et autres virus. Le marketing viral utilise ces ressorts. La réplication peut se faire de façon plus subtile, voire insidieuse, par exemple avec des formes de knowledge management (KM) “de premier degré” - en bref : la mondialisation induit un impératif d’innovation ; on veut dépasser les réactions quantitatives et malthusiennes qui s’attaquent aux coûts car elles jettent le bébé avec l’eau du bain en détruisant aussi les gisements de valeur ; on va donc privilégier la rapidité d’adaptation à un environnement changeant, donc innover en permanence, donc mobiliser le savoir et la créativité, donc fonctionner en réseau. Si l’on continue à gravir des échelons, on s’aperçoit que cette approche réactive reste “dans le jeu” alors qu’on a besoin de prendre du recul par rapport au jeu lui-même pour le remettre en question, voire le réinventer. La mémétique éclaire la complexité de cet exercice difficile où il faut pouvoir changer de logique, de paradigme, pour aborder un problème au niveau des processus du jeu et non plus au niveau de ses contenus. Comme dans la communication stratégique.

Déjà dans le lobbying classique, on savait depuis longtemps que le juriste applique la loi, le lobbyiste la change : le premier reste dans le jeu, quitte à tout faire pour contourner le texte ou en changer l’interprétation, alors que le second, constatant que la situation a évolué, s’emploie à faire changer les règles, voire le jeu lui-même. De même dans les appels d’offres, où certains suivent le cahier des charges quand d’autres contribuent à le définir en agissant en amont. De même dans le lobby-marketing, par exemple quand on s’attache à changer la nature de la relation plus que son contenu ou sa forme, pour passer de solliciteur à sollicité : faire que mon interlocuteur me prie de bien vouloir lui vendre ce que précisément je veux lui vendre... comme est aussi supposé le faire tout bon enseignant qui, ne se bornant pas à transférer des savoirs, veut donner envie d’apprendre ! Déjà difficile pour un lobbyiste néophyte, ce changement de perspective n’est pas naturel dans un “monde de l’innovation” où l’on privilégie un “rationnel plutôt cerveau gauche” qui ne prédispose pas à décoder le jeu pour pouvoir le mettre en question et le réinventer. 

L’interpellation mémétique peut conduire très loin, notamment quand elle montre comment l’essor des réseaux favorise des réplications de mèmes qui ne nous sont pas nécessairement favorables. Elle peut ainsi contredire des impulsions “évidentes” en KM, à commencer par celle qui fait admettre que pour innover et “s’adapter” il faut fonctionner en réseau et en réseaux de réseaux. Avec un peu de recul mémétique, on pourra considérer qu’il s’agit moins de s’adapter au système que d’adapter le système, donc pas nécessairement de suivre la course aux réseaux subis mais d’organiser l’adéquation avec des réseaux choisis, voire maîtrisés...

Aux origines de la mémétique

La possibilité que la sphère des humanités s’ouvre au modèle darwinien n’est pas nouvelle. Sans remonter à Démocrite, on la trouve chez le biochimiste Jacques Monod, dans Le hasard et la nécessité. La notion de monde des idées (noosphère) a été introduite par l’anthropologue Pierre Teilhard de Chardin. Alan Turing et Johannes Von Neumann, pères de l’informatique moderne, ont envisagé que les lois de la vie s’appliquent aussi à des machines ou créatures purement faites d’information. L’épistémologie évolutionnaire de Friedrich Von Hayek en est une autre illustration. D’autres parentés sont schématisées dans la carte ci-dessous.

De façon empirique, au quotidien, on peut observer la séparation du fait humain d’avec la nature, ainsi que son accélération : agriculture, urbanisation et autres activités sont visibles de l’espace, émissions de radio et autres expressions y sont audibles ; nos traces sont partout, livres, codes de lois, arts, technologies, religions… Est-ce l’homme qui a propulsé la culture ou celle-ci qui l’a tiré hors de son origine animale ?

En fait, grâce à ses outils, l’homme a favorisé une évolution combinée, un partenariat, un entraînement mutuel entre le biologique et le culturel. André Leroi-Gourhan raconte la co-évolution de l’outil, du langage et de la morphologie. Claude Lévi-Strauss parle de l’autonomie de l’organisation culturelle, par-delà les différences ethniques. Emile Durkheim revendique l’irréductibilité du fait social à la biologie. Parallèlement, l’observation des sociétés animales démontre que la nature produit des phénomènes collectifs, abstraits, allant bien au-delà des corps. Selon certaines extensions radicales de la sociobiologie à l’homme, toutes nos capacités seraient codées génétiquement, donc toute pratique culturelle - architecture, droit, économie ou art - ne serait qu’un phénotype étendu de l’homme. La réduction des comportements à leurs avantages évolutionnaires biologiques s’est atténuée. Le cerveau est modulaire, le schéma général de ses modules est inscrit dans les gènes, mais on a eu du mal à admettre que leur construction puisse se faire sur la base de flux cognitifs, d’apports d’expériences. 

Il y a des façons d’agir ou de penser qui au fil du temps ont contribué à la survie de ceux qui étaient naturellement aptes à les pratiquer : la peur du noir, la capacité de déguiser ses motivations, le désir de paraître riche ; ou plus subtilement la tendance à croire à une continuation de la vie après la mort, à une providence qui aide, à une vie dans l’invisible ; ou même le réflexe intellectuel consistant à supposer un but à toute chose. Mais il existe des idées, des modes de vie, des techniques, bref des éléments de culture indépendants de l’ADN, qui se transmettent par des moyens non génétiques, en particulier par l’imitation : c’est la thèse de Susan Blackmore, pour qui, entre ces mèmes en compétition, la sélection se fait en fonction de leur “intérêt propre” et non de celui des gènes.

L’argument de Pascal Jouxtel s’inspire d’une formule de Luca Cavalli-Sforza : l’évolution naturelle de l’homme est terminée car tous les facteurs naturels de sélection sont sous contrôle culturel. Tout ce qui pourrait influencer la fécondité ou la mortalité infantile est maîtrisé ou dépend de facteurs géopolitiques, économiques ou religieux. En revanche, la culture continue à évoluer : lois, art, technologies, réseaux de communication, structures de pouvoir, systèmes de valeurs. Le grand changement, c’est que les mèmes évoluent pour leur propre compte, en exploitant le terrain constitué par les réseaux de cerveaux humains, mais indépendamment, et parfois au mépris des besoins de leurs hôtes biologiques. 

“Ce sont des solutions mémétiquement évoluées qui sont aujourd’hui capables de breveter un génome. Il en va de même des religions et des systèmes politiques qui tuent. La plus majestueuse de toutes ces solutions s’appelle Internet, le cerveau global... Tout ce qui relie les humains est bon pour les mèmes. Il est logique, dans la même optique, de coder de façon de plus en plus digitalisée tous les modèles qui doivent être transmis, stockés et copiés. C’est ainsi que le monde se transforme de plus en plus en un vaste Leroy-Merlin culturel, au sein duquel il devient chaque jour plus facile de reproduire du prêt-à-penser, du prêt-à-vivre, du prêt-à-être. A mesure que l’on se familiarise avec l’hypothèse méméticienne, il devient évident qu’elle invite à un combat, à une résistance et à un dépassement. Elle nous montre que des modèles peuvent se reproduire dans le tissu social jusqu’à devenir dominants sans avoir une quelconque valeur de vérité ou d’humanité. Elle nous pose des questions comme : que valent nos certitudes ? De quel droit pouvons-nous imposer nos convictions et notre façon de vivre ?... Comment puis-je dire que je pense ?” (P. Jouxtel, www.memetique.org). Et bien sûr : comment les systèmes pondent-ils ?

Auteur: Quentin Jean-Pierre

Info: Critique du livre de Pascal Jouxtel "comment les systèmes..."

[ sociolinguistique ] [ PNL ]

 

Commentaires: 0

Ajouté à la BD par miguel

non-voyant

Le monde tel que l'imaginent ceux qui n'ont jamais vu. (I)
Depuis les opérations pratiquées par le chirurgien anglais Cheselden en 1728 sur des personnes atteintes de cataracte congénitale, redonner la vue aux aveugles ne tient plus du miracle biblique mais de la science - et les avancées extraordinaires que la médecine a effectuées dans ce domaine invitent à être optimistes pour l'avenir. Toutefois, la plupart des aveugles de naissance qui vivent aujourd'hui savent que ces progrès bénéficieront surtout aux générations futures et que, pour la majorité d'entre eux, ils quitteront ce monde sans en avoir rien vu. Pour autant, à en croire certains, il n'y a nullement là de quoi s'affliger :" Je ne regrette jamais de ne pas voir. Je vois autrement et puis je n'ai jamais vu avec les yeux, ça ne peut pas me manquer." affirme Sophie Massieu (36 ans, journaliste).
L'aveugle de naissance "ne sait pas ce qu'il perd", littéralement parlant, il n'a donc aucune raison de soupirer après un état qu'il n'a jamais connu. Ce n'est donc pas, dans son cas, sur le mode de la lamentation ou du regret lyrique qu'il faut entendre le mot "jamais", comme ce peut être le cas pour les aveugles tardifs qui restent longtemps hantés par leurs souvenirs de voyant... Non, pour l'aveugle-né, ce "jamais" fonctionne à la manière d'un levier, d'une faille où s'engouffre son imagination : à quoi peut ressembler ce monde visible dont tout le monde parle autour de lui ? Comment se représenter des notions proprement visuelles, telles que les couleurs, l'horizon, la perspective ? Toutes ces questions pourraient tenir en une seule : comment concevoir ce qu'est la vue sans voir ? Question qui a sa réciproque pour le voyant : comment se représenter ce que c'est que de ne pas voir pour quiconque a toujours vu ? Il y a là un défi lancé à l'imagination, défi d'autant plus difficile à relever que les repères auxquels chacun aura spontanément tendance à se référer seront tirés d'un univers perceptif radicalement différent de celui qu'on cherche à se représenter, et qu'ils risquent fort, par conséquent, de nous induire en erreur. Il n'est pas dit que ce fossé perceptif puisse être franchi par l'imagination - mais comme tout fossé, celui-ci appelle des passerelles : analogies puisées dans les autres sens ou dans le langage, efforts pour s'abstraire de ses automatismes de pensée - ce que Christine Cloux, aveugle de naissance, appelle une forme de "souplesse mentale"... L'enjeu, s'il est vital pour l'aveugle, peut sembler minime pour le voyant : que gagne-t-on à imaginer le monde avec un sens en moins ? On aurait tort de négliger l'intérêt d'une telle démarche intellectuelle, car s'interroger sur la perception du monde d'un aveugle de naissance, c'est remettre la nôtre en perspective, en appréhender le caractère relatif, mesurer à quel point nos représentations mentales dépendent de nos dispositions sensibles - enfin, c'est peut-être le moyen de prendre conscience des limites de notre point de vue et, le temps d'un effort d'imagination, de les dépasser...
Imaginer le monde quand on est enfant
Le jeune enfant voyant croit que les choses cessent d'exister dès lors qu'elles quittent son champ de vision : un moment très bref, dit-on, sépare le temps où il croit encore sa mère absente et celui où il la croit déjà morte. Qu'on s'imagine alors ce qu'il en est pour l'enfant aveugle de naissance... "J'avais peur de lancer un ballon, parce que je pensais qu'il allait disparaître. Mon monde s'arrêtait à un mètre, au-delà, pour moi, c'était le vide. "explique Natacha de Montmollin (38 ans, informaticienne de gestion). Comment être sûr que les objets continuent d'exister quand ils sont hors de portée, d'autant plus quand on ne les retrouve pas là où on les avait laissés ? Comment accorder sa confiance à monde aussi inconstant ? Un enfant aveugle de naissance aura nécessairement besoin de plus de temps qu'un enfant voyant pour trouver ses marques et pour comprendre le monde qui l'entoure.
Dans les premières années de sa vie, l'aveugle de naissance n'a pas conscience de son handicap... De fait, s'il ne vivait dans une société de voyants, il passerait toute sa vie sans se douter de l'existence du monde visible. Dans la nouvelle de H. G. Wells Le pays des aveugles, le héros, voyant débarqué dans une communauté d'aveugles qui vit repliée sur elle-même, découvre à ses dépens qu'on y traite ceux qui se prétendent doués de la vue non comme des dieux ou des rois, mais comme des fous, comme nous traitons ceux qui affirment voir des anges - pour le dire autrement : au royaume des aveugles de naissance, les borgnes seraient internés. C'est uniquement parce qu'il vit dans une société organisée par et pour des voyants que l'aveugle finit par contracter, avec le temps, le sentiment de sa différence. Cette découverte peut se faire de différentes manières : les parents peuvent, quand ils estiment leur enfant assez mûr, lui expliquer son infirmité ; l'enfant peut également la découvrir par lui-même, au contact des autres enfants. "On ne m'a jamais expliqué que j'étais aveugle, j'en ai pris conscience avec le temps, explique Sophie Massieu. Quand je jouais à cache-cache avec les autres enfants, je ne comprenais pas pourquoi j'étais toujours la première débusquée... Evidemment, j'étais toujours cachée sous une table, sans rien autour pour me protéger, je sautais un peu aux yeux..."
Le jeune aveugle de naissance finit donc par comprendre qu'il existe une facette de la réalité que les autres perçoivent mais qui lui demeure inaccessible. Dans un premier temps, cette "face du monde" doit lui paraître pour le moins abstraite et difficile à concevoir. Pour avoir un aperçu de l'effort d'imagination que cela exige, le voyant devrait tenter de se représenter une quatrième dimension de l'espace qui l'engloberait sans qu'il en ait conscience...
Il est inévitable que l'aveugle de naissance commence par se faire de certaines choses une représentation inexacte : ces "fourvoiements de l'imagination" constituent des étapes indispensables à l'élaboration de l'intelligence, qu'on soit aveugle ou non. En outre, ils peuvent avoir leur poésie. Un psychologue russe (cité par Pierre Villey dans son ouvrage Le monde des aveugles) mentionne l'exemple d'un jeune aveugle de naissance qui se représentait absolument tous les objets comme en mouvement, jusqu'aux plus immobiles : "pour lui les pierres sautent, les couleurs jouent et rient, les arbres se battent, gémissent, pleurent". Cette représentation peut prêter à sourire, mais après tout, la science et la philosophie ne nous ont-elles pas enseigné que l'immobilité du monde n'était qu'une illusion de la perception, découlant de l'incomplétude de notre point de vue ? A ce titre, l'imagination de ce garçon semblait lui avoir épargné certaines illusions dont l'humanité a eu tant de mal à se déprendre : par exemple, quoiqu'il ne sut rien du mouvement des corps célestes, on raconte que, lorsqu'on lui posa la question : "le soleil et la lune se meuvent-ils ?", il répondit par l'affirmative, sans aucune hésitation.
L'aveugle de naissance peut se représenter la plupart des objets en les palpant. Quand ceux-ci sont trop imposants, des maquettes ou des reproductions peuvent s'y substituer. "J'ai su comment était foutue la Tour Eiffel en ayant un porte-clefs entre les mains... " se souvient Sophie Massieu. Tant que l'objet demeure hors de sa portée, hors du champ de son expérience, il n'est pas rare que l'aveugle s'en fasse une image fantaisiste en se fondant sur la sonorité du mot ou par associations d'idées. Ce défaut n'est pas propre aux aveugles, et "chez chacun, l'imagination devance l'action des sens", pour reprendre l'expression de Pierre Villey. Mais ce défaut peut avoir des conséquences nettement plus fâcheuses chez l'aveugle de naissance, car s'il se contente de ces représentations inexactes et ne cherche pas à les corriger, il risque de méconnaître le monde qui l'entoure et de s'isoler dans un royaume fantasque construit selon les caprices de son imagination. L'aveugle-né n'a pas le choix : il doit s'efforcer de se représenter le monde le plus fidèlement possible, sous peine d'y vivre en étranger...
Imaginer les individus
Très tôt, l'aveugle va trouver des expédients pour se représenter le monde qui l'entoure, à commencer par les gens qu'il côtoie. Leur voix, pour commencer, constitue pour lui une mine d'informations précieuses : l'aveugle prête autant attention à ce que dit son interlocuteur qu'à la manière dont il le dit. La voix révèle un caractère, le ton une humeur, l'accent une origine... "On peut dire ce qu'on veut, mais notre voix parle de nous à notre insu." explique Christine Cloux (36 ans, informaticienne). Certains aveugles considèrent qu'il est beaucoup plus difficile de déguiser les expressions de sa voix que celles de son visage, et pour eux, c'est la voix qui est le miroir de l'âme : "Un monde d'aveugle aurait ses Lavater [auteur de"L'Art de connaître les hommes par la physionomie"]. Une phonognomie y tiendrait lieu de notre physiognomie." écrit Pierre Villey dans Le monde des aveugles. Mais à trop se fier au caractère révélateur d'une voix, l'aveugle s'expose parfois à de cruelles désillusions... Villey cite le cas d'une jeune aveugle qui s'était éprise d'une actrice pour le charme de sa voix : "Instruite des déportements peu recommandables de son idole elle s'écrie dans un naïf élan de désespoir : "Si une pareille voix est capable de mentir, à quoi pourrons-nous donc donner notre confiance ?".
De nombreux autres indices peuvent renseigner l'aveugle sur son interlocuteur : une poignée de main en dit long (Sophie Massieu affirme haïr "les poignées de main pas franches, mollasses...", qu'elle imagine comparables à un regard fuyant) ; le son des pas d'un individu peut renseigner sur sa corpulence et sa démarche ; les odeurs qu'il dégage peuvent donner de précieux renseignements sur son mode de vie - autant d'indices que le voyant néglige souvent, en se focalisant principalement sur les informations que lui fournit sa vue. Quant à l'apparence physique en elle-même, la perspicacité de l'aveugle atteint ici ses limites : "Il y a des choses qu'on sait par le toucher mais d'autres nous échappent : on a la forme du visage, mais on n'a pas la finesse des traits, explique Sophie Massieu. On peut toujours demander aux copines "tiens, il me plaît bien, à quoi il ressemble ?" Bon, il faut avoir des bonnes copines... " Certains aveugles de naissance sont susceptibles de se laisser influencer par les goûts de la majorité voyante : Jane Hervé mentionne la préférence d'une aveugle de naissance pour les blonds aux yeux bleus :"Je crois que les blonds sont beaux. Peut-être que c'est rare...". "D'une façon générale, je pense que la manière dont nous imaginons les choses que nous ne pouvons pas percevoir tient beaucoup à la manière dont on nous en parle, explique Sophie Massieu. Si la personne qui vous le décrit trouve ça beau, vous allez trouvez ça beau, si elle trouve ça moche, vous allez trouver ça moche...". De ce point de vue, l'aveugle dépend - littéralement - du regard des autres : "Mes amis et ma famille verbalisent beaucoup ce qu'ils voient, alors ils sont en quelque sorte mon miroir parlant..." confie Christine Cloux.
Imaginer l'espace
On a cru longtemps que l'étendue était une notion impossible à concevoir pour un aveugle. Platner, un médecin philosophe du siècle dernier, en était même arrivé à la conclusion que, pour l'aveugle-né, c'était le temps qui devait faire office d'espace : "Eloignement et proximité ne signifient pour lui que le temps plus ou moins long, le nombre plus ou moins grand d'intermédiaires dont il a besoin pour passer d'une sensation tactile à une autre.". Cette théorie est très poétique - on se prend à imaginer, dans un monde d'aveugles-nés, des cartes en relief où la place dévolue à chaque territoire ne serait pas proportionnelle à ses dimensions réelles mais à son accessibilité, au temps nécessaire pour le parcourir... Dans les faits, cependant, cette théorie nous en dit plus sur la manière dont les voyants imaginent le monde des aveugles que sur le contraire. Car s'il faut en croire les principaux intéressés, ils n'ont pas spécialement de difficulté à se figurer l'espace.
"Tout est en 3D dans ma tête, explique Christine Cloux. Si je suis chez moi, je sais exactement comment mon appartement est composé : je peux décrire l'étage inférieur sans y aller, comme si j'en avais une maquette. Vraiment une maquette, pas un dessin ou une photo. De même pour les endroits que je connais ou que j'explore : les gares, des quartiers en ville, etc. Plus je connais, plus c'est précis. Plus j'explore, plus j'agrandis mes maquettes et j'y ajoute des détails."La représentation de l'espace de l'aveugle de naissance se fait bien sous formes d'images spatiales, mais celles-ci n'en sont pas pour autant des images-vues : il faudrait plutôt parler d'images-formes, non visuelles, où l'aveugle projette à l'occasion des impressions tactiles. Pour décrire cette perception, Jane Hervé utilise une comparaison expressive :"les sensations successives et multiples constituent une toile impressionniste - tramée de mille touchers et sensations - suggérant la forme sentie, comme les taches d'or étincelant dans la mer composant l'Impression, soleil devant de Claude Monet."
A l'époque des Lumières, certains commentateurs, stupéfaits par les pouvoirs de déduction des aveugles, s'imaginaient que ceux-ci étaient capables de voir avec le bout de leurs doigts (ils étaient trompés, il faut dire, par certains aveugles qui prétendaient pouvoir reconnaître les couleurs d'un vêtement simplement en touchant son étoffe). Mais les aveugles de naissance eux-mêmes ne sont pas à l'abri de ce genre de méprises : Jane Hervé cite le cas d'une adolescente de 18 ans - tout à fait intelligente par ailleurs - qui pensait que le regard des voyants pouvait contourner les obstacles - exactement comme la main permet d'enserrer entièrement un petit objet pour en connaître la forme. Elle pensait également que les voyants pouvaient voir de face comme de dos, qu'ils étaient doués d'une vision panoramique : "Elle imaginait les voyants comme des Janus bifaces, maîtres du regard dans toutes les directions.". L'aveugle du Puiseaux dont parle Diderot dans sa Lettre sur les aveugles, ne sachant pas ce que voulait dire le mot miroir, imaginait une machine qui met l'homme en relief, hors de lui-même. Chacun imagine l'univers perceptif de l'autre à partir de son univers perceptif propre : le voyant croit que l'aveugle voit avec les doigts, l'aveugle que le voyant palpe avec les yeux. Comme dans la parabole hindoue où des individus plongés dans l'obscurité tentent de déduire la forme d'un éléphant en se fondant uniquement sur la partie du corps qu'ils ont touché (untel qui a touché la trompe prétend que l'éléphant a la forme d'un tuyau d'eau, tel autre qui a touché l'oreille lui prête la forme d'un éventail...) - semblablement les êtres humains imaginent un inconnu radical à partir de ce qu'ils connaissent, quand bien même ces repères se révèlent impropres à se le représenter.
Parmi les notions spatiales particulièrement difficiles à appréhender pour un aveugle, il y a la perspective - le fait que la taille apparente d'un objet diminue proportionnellement à son éloignement pour le sujet percevant. "En théorie je comprends ce qu'est la perspective, mais de là à parvenir à réaliser un dessin ou à en comprendre un, c'est autre chose - c'est d'ailleurs la seule mauvaise note que j'ai eu en géométrie, explique Christine Cloux. Par exemple, je comprends que deux rails au loin finissent par ne former qu'une ligne. Mais ce n'est qu'une illusion, car en réalité il y a toujours deux rails, et dans ma tête aussi. Deux rails, même très loin, restent deux rails, sans quoi le train va avoir des ennuis pour passer..." Noëlle Roy, conservatrice du musée Valentin Haüy, se souvient d'une aveugle âgée, qui, effleurant avec ses doigts une reproduction en bas-relief du tableau l'Angélus de Millet, s'était étonnée que les deux paysans au premier plan soient plus grands que le clocher dont la silhouette se découpe sur l'horizon. Quand on lui expliqua que c'était en vertu des lois de la perspective, les personnages se trouvant au premier plan et le clocher très loin dans la profondeur de champ, la dame s'étonna qu'on ne lui ait jamais expliqué cela... On peut se demander comment cette dame aurait réagi si, recouvrant l'usage de la vue suite à une opération chirurgicale, elle avait aperçu la minuscule silhouette d'un individu dans le lointain : aurait-elle pensé que c'était là sa taille réelle et que cet individu, s'approchant d'elle, n'en serait pas plus grand pour autant ? Jane Hervé cite le témoignage d'une aveugle de 62 ans qui a retrouvé la vue suite à une opération : "Tout était déformé, il n'y avait plus aucune ligne droite, tout était concave... Les murs m'emprisonnaient, les toitures des maisons paraissaient s'effondrer comme après un bombardement. Ce que je voyais ovale, je le sentais rond avec mes mains. Ce que je distinguais à distance, je le sentais sur moi. J'avais des vertiges permanents. "On peut s'imaginer le cauchemar que représente une perception du monde où la vision et la sensation tactile ne concordent pas, où les sens envoient au cerveau des signaux impossibles à concilier... D'autres aveugles de naissance, ayant recouvré l'usage de la vue suite à une opération, dirent avoir l'impression que les objets leur touchaient les yeux : ils eurent besoin de plusieurs jours pour saisir la distance et de plusieurs semaines pour apprendre à l'évaluer correctement. Cela nous rappelle que notre vision du monde en trois dimensions n'a rien d'innée, qu'elle résulte au contraire d'un apprentissage et qu'il y entre une part considérable de construction intellectuelle.

Auteur: Molard Arthur

Info: http://www.jeanmarcmeyrat.ch/blog/2011/05/12/le-monde-tel-que-limaginent-ceux-qui-nont-jamais-vu

[ réflexion ] [ vacuité ] [ onirisme ] [ mimétisme ] [ synesthésie ] [ imagination ]

 
Mis dans la chaine

Commentaires: 0