Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 29
Temps de recherche: 0.0497s

rationnel-irrationnel

Les présupposés de la sociologie de la connaissance n’eussent jamais intimidé longtemps les ethnologues, si les épistémologues n’avaient élevé au rang d’un principe fondateur cette même asymétrie entre les vraies sciences et les fausses. Seules ces dernières - les sciences "périmées" - peuvent se lier au contexte social. Quant aux sciences "sanctionnées", elles ne deviennent scientifiques que parce qu’elles s’arrachent justement à tout contexte, à toute trace de contamination, à toute évidence première et qu’elles échappent même à leur propre passé. Telle est la différence, pour Bachelard et ses disciples, entre l’histoire et l’histoire des sciences. La première peut être symétrique, mais peu importe puisqu’elle ne traite jamais de science ; la seconde ne doit jamais l’être afin que la coupure épistémologique demeure totale.

Un seul exemple suffira pour montrer jusqu’où peut mener le rejet de toute anthropologie symétrique. Lorsque Canguilhem distingue les idéologies scientifiques des vraies sciences, il affirme non seulement qu’il est impossible d’étudier Darwin - le savant - et Diderot - l’idéologue - dans les mêmes termes, mais qu’il doit être impossible de les mettre dans le même sac. "La séparation de l’idéologie et de la science doit empêcher de mettre en continuité dans une histoire des sciences quelques éléments d’une idéologie apparemment conservés et la construction scientifique qui a destitué l’idéologie : par exemple à chercher dans le Rêve de d'Alembert des anticipations de L'Origine des espèces" (*p. 45). N’est scientifique que ce qui rompt pour toujours avec l’idéologie. En suivant un tel principe, il est difficile en effet de suivre les quasi-objets dans leurs tenants et aboutissants. Une fois passés entre les mains de l’épistémologue, toutes leurs racines seront arrachées. Il ne restera plus que l’objet excisé de tout le réseau qui lui donnait sens. Mais pourquoi parler même de Diderot et de Spencer, pourquoi s’intéresser à l’erreur ? Parce que sans elle le vrai brillerait d’un éclat trop éblouissant ! "L’entrelacement de l’idéologie et de la science doit empêcher de réduire l’histoire d’une science à la platitude d’un historique, c’est-à-dire d’un tableau sans ombres de relief" (p. 45). Le faux est le faire-valoir du vrai. Ce que Racine faisait pour le Roi Soleil sous le beau nom d’historien, Canguilhem le fait pour Darwin, sous l’étiquette, également usurpée, d’historien des sciences.

Le principe de symétrie rétablit, au contraire, la continuité, l’historicité et, disons-le, la justice. Bloor est l’anti-Canguilhem, de même que Serres est l’anti-Bachelard, ce qui explique d’ailleurs l’incompréhension totale en France de la sociologie des sciences comme de l’anthropologie de Serres (Bowker et Latour, 1987). "Il n’est de pur mythe que l’idée d’une science pure de tout mythe", écrit celui-ci lorsqu’il rompt avec l'épistémologie (Serres, 1974, p. 259). Pour lui comme pour les historiens des sciences proprement dits, Diderot, Darwin, Malthus et Spencer doivent s’expliquer selon les mêmes principes et les mêmes causes ; si vous souhaitez rendre compte de la croyance dans les soucoupes volantes, vérifiez si vos explications peuvent être employées, symétriquement, pour les trous noirs (Lagrange, 1990) ; si vous attaquez la parapsychologie, êtes-vous capables d’utiliser les mêmes facteurs pour la psychologie (Collins et Pinch, 1991) ? Si vous analysez les succès de Pasteur, les mêmes termes vous permettront-ils de rendre compte de ses échecs ?

Auteur: Latour Bruno

Info: Nous ne sommes pas modernes, pp 60-61. *Canguilhem, Études d'histoire et de philosophie des sciences concernant les vivants et la vie (1968) 7e rééd. Vrin, Paris, 1990

[ historique ] [ religions ]

 

Commentaires: 0

Ajouté à la BD par miguel

​​​​​​​signes contextualisés

Cette énigme, ce nœud gordien de la "réalité extérieure", avec lequel la modernité avait paralysé les philosophes, est précisément ce que Sebeok a tranché. Confronté au dilemme de l'implication moderne d'un labyrinthe du fonctionnement de l'esprit, il a trouvé la sortie :

Que faut-il faire de tout cela ? Il me semble que, tout au moins pour nous, travailleurs dans un contexte zoosémiotique, il n'y a qu'une seule façon de se frayer un chemin dans ce bourbier, et c'est d'adhérer strictement aux thèses globales de Jakob von Uexküll sur les signes. (Sebeok, 2001, pp. 78 & 193n6) 

Bien sûr, Sebeok évoque ici l'Umweltstheorie, rien de moins, pour laquelle rien n'est plus central que la distinction que fait Sebeok lui-même entre le langage au sens premier (cet aspect du système de modélisation humain ou Innenwelt qui est sous-déterminé biologiquement et, en tant que tel, spécifique à notre espèce) et l'exaptation du langage pour communiquer (ce qui aboutit à la communication linguistique en tant que, encore une fois, moyen spécifique à l'espèce humaine).

L'erreur des relativistes culturels de tout poil, et des modernes en général, du point de vue de Sebeok, a été de traiter le langage comme un système autonome englobant tout, au lieu de réaliser son contexte zoosémiotique (Deely, 1980). Dans ce contexte, "l'unicité de l'homme" n'apparaît que dans la mesure où elle est soutenue par et dépend des points communs de signification qui définissent et constituent le domaine plus large des choses vivantes au sein duquel se trouve le langage, champ bien plus vaste au sein duquel les humains sont nécessairement incorporés et liés par x milliard de connexions que la compréhension même de la vie humaine doit finalement conduire vers une certaine incorporation consciente. En d'autres termes, la dernière contribution de Sebeok, venant de l'intérieur de la modernité, aura été de réaliser qu'il existait une voie au-delà de la modernité, la voie des signes. La question, sous cette forme, ne l'a jamais intéressé, mais dans le sillage de son œuvre, elle mérite d'être posée : que devrait être la postmodernité ? 

Il ne pouvait s'agir que d'une vision du monde qui parviendrait, d'une manière ou d'une autre, à rétablir ce qui est extérieur à nous-mêmes comme étant connaissable en tant que tel ou en tant que tel, sans renoncer à la prise de conscience moderne selon laquelle une grande partie, sinon la majorité, de ce que nous connaissons directement se réduit à nos propres coutumes et conventions selon lesquelles les objets sont structurés et les déductions faites. Sebeok a peut-être été tout à fait moderne. Mais personne n'a fait plus que lui pour s'assurer que l'ère moderne, du moins dans la culture intellectuelle et dans la philosophie dont il n'a jamais prétendu assumer le flambeau, était terminée. Sebeok est devenu, malgré lui, postmoderne jusqu'au bout des ongles. 

Je dis "malgré lui", car je sais qu'il avait une aversion pour l'appellation "postmoderne", pour une très bonne raison. La plus grande partie de la vie professionnelle de Sebeok avait été consacrée à exposer et à surmonter ce qu'on a appelé le "pars pro toto fallacy"*, selon lequel la doctrine du signe trouve son fondement adéquat dans un paradigme linguistique, pour ne pas dire verbal. Telle était la thèse, bien connue à la fin du vingtième siècle, de la proposition de "sémiologie" de Saussure. 

Par contraste, Sebeok a promu dès le début que la doctrine des signes doit être enracinée directement dans une étude générale de l'action des signes, de la manière distinctive dont les signes fonctionnent, action pour laquelle il a accepté de Peirce le nom de "sémiose". Mais si la doctrine des signes concerne avant tout l'action révélatrice de l'être distinctif des signes, alors la proposition adéquate pour son développement n'est pas le terme "sémiologie" mais plutôt le terme "sémiotique", qui exprime l'idéal d'un paradigme non lié au langage et se réfère à l'action des signes comme étant plus grande que, englobante, et en fait présupposée à toute action des signes comme étant de nature verbale. "La sémiose, a très tôt déclaré Sebeok, est un fait omniprésent de la nature comme de la culture" (1977a, p. 183).  

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Erreur consistant à confondre une partie d'un objet avec le concept qui représente son intégralité. Trad Mg

[ réagencement permanent ] [ hyper-complexité ] [ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

races monades

"Pour nous qui travaillons dans un contexte zoösémiotique, il n'y a qu'une seule manière pour se frayer une issue dans ce maquis" (Sebeok, 2001, pp. 78 & 193n6).

Le réalisme ne suffit pas. Cette voie des choses a été essayée et s'est avérée insuffisante, même si elle ne l'est pas autant que la voie des idées.  Car le long de la Voie des signes, nous constatons que le "réalisme scolaire", comme l'a souligné Peirce ("ou une approximation proche de cela"), bien qu'insuffisant, fait partie de l'essence de l'entreprise. La seule façon d'atteindre au minimum ce réalisme (au sens du "réalisme scolastique" , c'est-à-dire tel que Peirce l'a correctement défini) c'est de garantir, au sein de l'expérience, une distinction non seulement entre signes et objets (les premiers étant considérés comme des "signes"), mais aussi entre les idées et les objets (les seconds étant considérés comme des "idées"). La seule façon d'atteindre le réalisme dans le sens minimaliste requis (au sens du "réalisme scolastique", tel que Peirce l'a défini) est de garantir, au sein de l'expérience, une distinction non seulement entre les signes et les objets (les premiers étant présupposés à la possibilité des seconds), mais aussi entre les objets et les choses. Le terme "choses" faisant ici référence à une dimension de l'expérience du monde objectif qui  ne se réduit pas seulement à l'expérience que nous en avons, mais qui est en outre connaissable en tant que telle au sein d'une objectivité via une discrimination, dans des cas particuliers, pour identifier ce qui marque la différence entre ens reale et ens rationis dans la nature des objets expérimentés. De cette façon (et pour cette raison), le "module minimal mais suffisant de traits distinctifs du  +,  -  ou 0, diversement multipliés dans des systèmes zoösémiotiques avancés, qui restent pourtant entièrement perceptifs par nature, est bien loin des modèles cosmiques extrêmement complexes que Newton ou Einstein ont, a des époques données, offert à l'humanité." (Sebeok, 1995, p. 87, ou 2001, p. 68).

Et la seule façon d'établir une différence entre les choses expérimentées en tant qu'objets à travers leur relation avec nous et les choses comprises, réellement ou prospectivement, en tant que choses en elles-mêmes, ou indépendamment d'une telle relation cognitive, c'est à travers un système de modélisation capable de discerner, grâce à des processus expérimentaux, une différence entre les aspects de l'objet donnés dans l'expérience et ces mêmes aspects donnés en dehors de l'expérience particulière.

Tels sont les termes tranchants de Sebeok, pour dire  que la distinction entre les objets et les choses dépend d'un système de modélisation, un Innenwelt, qui a parmi ses composants biologiquement déterminés un composant biologiquement sous-déterminé, composant que Sebeok nomme "langage". Grâce à ce dernier nous pouvons modéliser la différence entre les "apparences" au sens objectif et la "réalité" au sens scolaire, et proposer des expériences pour tester le modèle, conduisant à son extension, son raffinement ou son abandon, selon les particularités du cas. Il n'est pas nécessaire qu'il y ait un genre d'Umwelt - spécifiquement humain - pour que l'esprit soit en contact avec la réalité dans ce sens scolastique*. Car la réalité au sens scolastique n'a pas besoin d'être envisagée pour être rencontrée objectivement.

L'idée de réalité, nous le verrons bientôt, n'est rien d'autre qu'un composant représentatif d'une sorte d'Umwelt, ici spécifiquement humain. Mais le contenu objectif de cette idée (non pas formellement prescrite comme tel, mais "matériellement" au sens scolastique) fait partie de l'Umwelt de tout animal.

Sebeok aimait citer Jacob sur ce point : "Quelle que soit la manière dont un organisme étudie son environnement, la perception qu'il en a doit nécessairement refléter ce qu'on appelle la réalité et, plus précisément, les aspects de la réalité qui sont directement liés à son propre comportement. Si l'image qu'un oiseau obtient des insectes dont il a besoin pour nourrir sa progéniture ne reflète pas au moins certains aspects de la réalité, alors il n'y a plus de progéniture. Si la représentation qu'un singe construit de la branche sur laquelle il veut sauter n'a rien à voir avec la réalité, il n'y a plus de singe.  Et si ce point ne s'appliquait pas à nous-mêmes, nous ne serions pas ici pour en discuter." (Jacob, 1982, p. 56)

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Ce que Peirce nomme " réalisme scolastique ", au vu de sa provenance médiévale dans la reconnaissance explicite du contraste entre l'ens reale et l'ens rationis (Le mental et le réel dans le formalisme scotiste du XVIe siècle), je l'appelle "réalisme hardcore", en raison de la continuité de la notion médiévale de l'ens reale avec le ον dont parlait Aristote en tant que grand-père de la scolastique. Ainsi, le réalisme pur et dur signifie qu'il existe une dimension de l'univers de l'être qui est indifférente à la pensée, à la croyance et au désir humains, de sorte que, si par exemple je crois que l'âme survit à la destruction de mon corps et que j'ai tort, quand mon corps disparaît mon âme aussi - ou, à l'inverse, si je crois que la mort du corps est aussi la fin de mon esprit ou de mon âme et que j'ai tort, lorsque mon corps se désintègre, mon âme continue à vivre, et je devrai faire le point en conséquence. Ou bien, pour donner un exemple plus historique, depuis l'époque d'Aristote jusqu'à au moins celle de Copernic, les meilleures preuves, arguments, et opinions de toutes sortes soutenaient que le soleil se déplace par rapport à la terre, alors qu'en réalité, depuis le début. c'était la terre qui bougeait par rapport au soleil, et si le soleil bougeait aussi, ce n'était pas par rapport à la terre

[ solipsisme de l'espèce ] [ représentations ] [ concepts ] [ tiercités ] [ échelles de grandeur ] [ réel partagé ]

 

Commentaires: 0

Ajouté à la BD par miguel

intolérance

Une démission ordinaire

Il est des faits qui, malgré leur caractère anecdotique, nous en apprennent beaucoup sur l’époque dans laquelle nous vivons : la démission récente de Peter Boghossian est de ceux-là. La nouvelle passera probablement inaperçue ; elle est pourtant révélatrice du climat qui règne désormais dans les universités nord-américaines (au Québec y compris, plusieurs pourraient en témoigner).

Peter Boghossian, dont une partie des lecteurs du Devoir ignorent sans doute — à juste titre — le nom, était jusqu’à tout récemment professeur adjoint de philosophie à l’Université d’État de Portland. Il est surtout connu du grand public pour sa participation au canular dit des "Grievance Studies". En 2018, avec ses deux complices Helen Pluckrose et James Lindsay, il est en effet parvenu à faire publier dans diverses revues de sciences humaines des études parfaitement bidon, mais qui adoptaient le ton dénonciateur et les clichés du prétendu progressisme contemporain. Sur les sept qui furent acceptées, l’une s’inquiétait de la "culture du viol" omniprésente dans les parcs à chiens de Portland, une autre préconisait la création d’un "fat bodybuilding" afin que les personnes obèses ne se sentent plus opprimées par la surexposition des corps athlétiques de M. ou Mme Muscle, une troisième était constituée de certains passages de Mein Kampf réécrits en ayant recours au jargon typique des théories déconstructionnistes, etc. Leur but était évidemment de se moquer des "studies" (sur le genre, la race, les gros, etc.) qui se multiplient dans les universités alors même que leur caractère scientifique est parfois douteux, la dénonciation rituelle de l’"oppression" dont sont victimes les minorités y remplaçant trop souvent la rationalité, l’objectivité, voire la simple honnêteté intellectuelle.

Le monde à l’envers

À la suite de ce canular, on aurait pu penser que quelques-uns de ses collègues universitaires feraient amende honorable et reconnaîtraient, au moins à demi-mot, l’existence d’un manque de rigueur dans l’évaluation par les pairs de ces études, et peut-être même d’un problème plus général de remplacement, au sein de certains secteurs des sciences humaines, d’une démarche scientifique rigoureuse, rationnelle, critique, ouverte au débat, par un militantisme obtus, idéologique, réfractaire à toute remise en question et faisant feu de tout bois pour faire avancer la Cause.

Mais c’est tout le contraire qui se passa ; Boghossian devint à partir de là la cible d’un harcèlement généralisé, non seulement de la part de ces étudiants qui se qualifient d’"éveillés" (woke), mais aussi de plusieurs de ses collègues et même de l’administration de son université. Tandis que son nom était associé à des croix gammées dans des graffitis dans les toilettes proches du département de philosophie, qu’il était chahuté durant ses cours ou qu’un sac contenant des excréments était déposé devant la porte de son bureau, le CPP (sorte de comité éthique) de l’université d’État de Portland engagea contre lui des poursuites au motif qu’il avait réalisé des recherches (celles ayant mené à la rédaction de ces fameux articles) portant sur des sujets humains sans obtenir préalablement leur approbation — ce qui fit dire au célèbre biologiste Richard Dawkins que ce CPP manifestait ainsi son opposition "à l’idée même de la satire comme forme d’expression créative" et qu’on ne pouvait s’empêcher de soupçonner chez ses membres la présence de quelque "arrière-pensée".

Comme on le voit, c’est un peu le monde à l’envers désormais à l’université : ce n’est plus le fait de publier à répétition des études tendancieuses ni de manipuler des résultats de recherche pour les rendre conformes à certains présupposés, pas plus que de se cacher derrière une pseudoscientificité pour avancer, dans des travaux amplement subventionnés, des thèses d’une radicalité politique parfois surprenante qui devient problématique, mais celui d’user d’ironie pour se moquer de ces dérives. Ces professeurs, si radicaux quand il s’agit de mettre en question les "rapports de pouvoir", le "patriarcat " ou la "culture blanche et suprémaciste", n’entendent pas à rire avec leurs propres réflexions et leur propre pouvoir et se montrent sur ces sujets aussi chatouilleux que les théologiens et les inquisiteurs d’autrefois sur les points de doctrine. Bizarrement, les théories les plus critiques, qui n’hésitent pas à remettre en question jusqu’au simple bon sens, ne croient pas nécessaire de se soumettre elles-mêmes à la critique.

Quant à Peter Boghossian, qui pratiquait lui-même autant qu’il formait ses étudiants à la pensée critique et à la méthode socratique, il vient de démissionner estimant ne plus être en mesure d’enseigner dans une université qui a cessé d’être un "bastion de la recherche libre" pour devenir "une usine de justice sociale", écrit-il dans sa lettre de démission. " Je n’ai jamais cru, poursuit-il, que le but de l’instruction était de mener les étudiants à certaines conclusions particulières", mais qu’il devait être plutôt "de les aider à acquérir les outils leur permettant de parvenir à leurs propres conclusions". Or, conclut-il, on "n’enseigne plus aux étudiants de l’Université d’État de Portland à penser", on les entraîne à reproduire "les certitudes morales qui sont le propre des idéologues".

Nous sommes nombreux, je pense, à regretter qu’un tel professeur ait été acculé à la démission, et encore plus à déplorer que rien ne semble devoir arrêter cette métamorphose de certains cours ou programmes universitaires en machines à endoctriner.

Auteur: Moreau Patrick

Info: ledevoir.com, 1 octobre 2021

[ terrorisme intellectuel ] [ suppression des contrepouvoirs ] [ cancel culture ] [ censure ] [ tyrannie ]

 

Commentaires: 0

Ajouté à la BD par miguel

être humain

Les chimpanzés s'entretuent-ils sous l'influence de l'homme ? Quand, en 1960, celle qui va devenir une primatologue de renommée mondiale, la Britannique Jane Goodall, s'installe sur le site tanzanien de Gombe, au bord du lac Tanganyika, pour étudier les chimpanzés sur le terrain, elle ne se doute pas qu'elle va changer à tout jamais le regard que nous portons sur nos cousins primates. Au fil du temps, ses observations de Pan troglodytes étonnent le petit monde de la zoologie (au point que certains ne la croiront pas) et le rapprochent étrangement d'Homo sapiens : on découvre que les chimpanzés fabriquent des outils, mangent de la viande, rient... et s'entretuent parfois.

Chez les primates, rares sont les espèces où l'on tue ses congénères. Le comportement meurtrier des chimpanzés a donc troublé les éthologues qui ont échafaudé deux hypothèses pour tenter de l'expliquer. La première nous met en cause, qui dit que les agressions mortelles se développent là où l'homme agresse le singe, soit directement, en le braconnant, soit indirectement, en détruisant son habitat via la déforestation. A Gombe, il a aussi été noté que l'approvisionnement par l'homme des communautés de chimpanzés, action a priori bienveillante, pouvait avoir des conséquences perverses : ne plus avoir à chercher de la nourriture sédentarisait les singes et faisait grimper le nombre d'agressions. La seconde hypothèse est d'ordre évolutionniste. Selon elle, le meurtre serait une tactique grâce à laquelle le tueur accroît à peu de frais son territoire, son accès à la nourriture et à la reproduction.

Dans une étude publiée ce mercredi 17 septembre par Nature, une équipe internationale a voulu mettre ces deux scénarios à l'épreuve, voir si l'on retrouvait sur le terrain les présupposés qui les sous-tendent. Pour ce faire, les chercheurs ont analysé les statistiques et observations réalisées depuis des décennies auprès de 18 communautés de chimpanzés et de 4 communautés de bonobos, l'autre espèce de chimpanzés. Chez les premiers, le meurtre s'est avéré une pratique courante, présente dans 15 des 18 communautés étudiées. Au cours des 426 années d'études accumulées, les éthologues ont observé directement 58 meurtres, en ont déduit 41 autres d'après les blessures retrouvées sur les cadavres et ont recensé 53 disparitions suspectes. Chez les bonobos, en revanche, aucun meurtre n'a jamais été observé et seul un cas suspect de disparition est connu. Cela s'explique probablement en grande partie par le fait que ces singes ont un mode de gestion et de résolution des conflits très efficace, qui passe par... le sexe.

Chez les chimpanzés, on préfère faire la guerre plutôt que l'amour. Leur organisation sociale prévoit une fragmentation de la communauté en groupes qui cherchent de la nourriture sur le territoire. Si un groupe tombe sur un individu isolé venant d'une autre communauté, il n'est pas rare qu'un assaut brutal soit lancé, avec pour conséquence de graves blessures quand ce n'est pas la mort de l'intrus.

L'étude de Nature n'a pas trouvé de lien de corrélation positive entre la présence humaine et les moeurs assassines. Le plus haut taux d'agressions létales a été enregistré dans une zone où l'homme est quasiment absent. A l'inverse, sur le site qui subit le plus de pression de la part d'Homo sapiens, aucun meurtre entre chimpanzés n'a été commis. C'est donc la seconde hypothèse que ces chercheurs privilégient, celle d'un comportement issu de l'évolution naturelle, où tuer un congénère donne un avantage, en termes de ressources, à l'individu meurtrier ou au groupe auquel il appartient. Rien d'étonnant, donc, à ce que les communautés qui s'adonnent le plus à cette pratique soient aussi celles où la compétition pour les ressources s'avère la plus âpre, où les mâles sont nombreux et où la densité de population est élevée. 

La conclusion de cette étude a de quoi surprendre, qui nous dit, pour schématiser, que les chimpanzés tuent à peu près pour les mêmes raisons que l'homme. Comme si - sans vouloir faire de la philosophie à la petite semaine - le meurtre faisait partie de leur nature comme il fait, hélas, partie de la nôtre. Je me rappelle ce que m'avait dit Jane Goodall lorsque, début 2006, j'étais allé la rencontrer chez elle afin de faire son portrait pour Le Monde. Elle me dépeignait la guerre à laquelle elle avait assisté chez les chimpanzés, à ces mâles patrouillant entre les arbres et massacrant leurs voisins avec une brutalité inouïe. "Tristement, m'avait-elle dit, cela les rendait encore plus humains." 

Les auteurs ont sans doute conscience que leur travail peut choquer à plusieurs titres : pour ce qu'il dit du comportement meurtrier, envisagé comme un résultat naturel de l'évolution, et parce qu'il modifie encore un peu plus la façon dont nous voyons nos plus proches cousins. Dans l'article d'éclairage qu'elle écrit dans le même numéro de Nature, l'anthropologue américaine Joan Silk (université de l'Arizona) résume parfaitement cela :

"La manière dont on perçoit le comportement des primates non-humains, et particulièrement des chimpanzés, est souvent déformée par l'idéologie et l'anthropomorphisme, qui prédisposent à croire que des éléments moralement désirables, comme l'empathie et l'altruisme, sont profondément enracinés dans l'évolution, tandis que les éléments indésirables, tels que la violence en réunion ou les rapports sexuels contraints, ne le sont pas. Cela reflète une forme naïve de déterminisme biologique. (...) Les données nous disent que, pour les chimpanzés, il y a des circonstances écologiques et démographiques dans lesquelles les bénéfices d'une agression mortelle surpassent les coûts, rien de plus."

Auteur: Barthélémy Pierre

Info:

[ homme-animal ] [ comparaison ] [ sciences ] [ question ] [ calcul matérialiste ] [ pouvoir ] [ criminalité ]

 

Commentaires: 0

sociologie

La tyrannie de l’apparence
A l’école, à la fac, au travail… Avant même nos compétences, c’est notre physique qui est jugé. Une dictature du beau dénoncée, preuves à l’appui, par le sociologue Jean-François Amadieu.
Depuis l’Antiquité grecque, nous sommes victimes et vecteurs du même présupposé : ce qui est beau est bon. Aujourd’hui encore, tout le monde le pressent et personne ne veut y croire : notre vie tout entière est soumise à la tyrannie des apparences.
Pour la première fois en France, un livre, Le Poids des apparences (Odile Jacob, 2002), en apporte la démonstration. Professeur de sociologie, Jean-François Amadieu a recensé trente ans d’études américaines et européennes sur le sujet et en tire une conclusion effarante : toute notre vie, dans tous les domaines, en amour comme au travail, notre apparence conditionnera nos relations aux autres.
Poussant son analyse, le sociologue démontre combien la beauté est un formidable outil de discrimination sociale que les élites imposent aux classes les plus basses. Dans le monde entier, les canons de la beauté ne sont-ils pas ceux des Blancs américains diffusés par la télévision et le cinéma : blondeur, minceur, jeunesse. Que l’on s’y résolve ou que l’on se révolte, nous n’en sommes pas moins, dès la naissance, soumis à la première des injustices : celle des apparences.
Au berceau déjà
Les regards qui se portent sur le nourrisson dans son berceau ne sont pas neutres. Un bébé beau attirera force sourires et risettes alors qu’un enfant moins séduisant créera une certaine gêne chez les adultes. Même infime – oreilles décollées, tache de naissance, dissymétrie des traits –, la différence physique sera vécue par les parents comme un handicap futur. Et suscitera des comportements différents à l’égard du nourrisson.
" On ne peut pas dire qu’une mère ou un père préfèrera un enfant plus beau que ses frères et sœurs, explique Jean-François Amadieu. En revanche, les études ont prouvé que les activités seront différentes selon que l’enfant est beau ou laid. Par exemple, une mère jouera beaucoup avec son nourrisson s’il est beau, tandis qu’elle focalisera sur les apprentissages s’il est disgracieux. Et parce qu’elle sait qu’il risque de se heurter, plus tard, aux regards des autres, elle s’en occupera plus. Il est d’ailleurs prouvé que ces enfants réussiront mieux à l’école que la moyenne. On peut ici parler d’un effet de compensation à la laideur."
A l’école du favoritisme
A la maternelle déjà, les enfants beaux sont privilégiés. Les enseignants ont une meilleure opinion d’eux, leur accordent davantage d’attention, les évaluent plus chaleureusement - in Modèles du corps et psychologie esthétique de Jean Maisonneuve et Marilou Bruchon-Schweitzer (PUF, 1981). Cette bienveillance engendre une confiance chez l’enfant qui l’accompagnera toute sa vie. D’autant qu’elle va mettre en place une dynamique du succès qui se poursuivra à l’âge adulte. Ensuite, au collège et au lycée, une note peut varier de 20 à 40 % selon la beauté de l’élève. Les études prouvent qu’une étudiante laide mais de bon niveau est peu défavorisée par rapport à une étudiante belle de même niveau. En revanche, si la plus jolie est mauvaise élève, ses notes seront nettement surévaluées par les examinateurs, expliquent Jean Maisonneuve et Marilou Bruchon-Schweitzer dans Le Corps et la Beauté (PUF, 1999).
"Beaucoup plus que l’enfant beau, l’enfant laid est jugé responsable de ses échecs scolaires autant que de ses fautes, remarque Jean-François Amadieu. D’abord par les instituteurs, puis par les professeurs et enfin par les recruteurs. La beauté est un statut qui vaut diplôme : elle enrichit, comme la laideur altère, nos compétences."
La tête de l’emploi
Diplôme en poche, vous pensiez être délivré de la dictature des apparences ? Erreur. "Une apparence avenante est cruciale au moment de l’embauche, mais également pour une bonne intégration au sein de l’entreprise, explique Jean-François Amadieu. Elle permet une meilleure évaluation des performances et favorise un bon déroulement de carrière." Le candidat sera jugé d’abord sur des critères extérieurs : soin apporté à sa personne, poids, beauté physique, etc. 50 % des employeurs jugent qu’un physique séduisant est un critère important de recrutement (Multicity Study of Urban Inequality de H. Holzer, Michigan State University, 1993). Les critères négatifs : poids excessif, petite taille, nez trop long, grandes oreilles, visage disgracieux, mains moites…
"Les beaux sont jugés plus intelligents, plus ambitieux, plus chaleureux, plus sociables, plus équilibrés et moins agressifs", assure encore le sociologue. Ainsi, de nombreux spécialistes du recrutement estiment, consciemment ou pas, qu’une personnalité équilibrée se voit. Pire, les études prouvent qu’à diplôme équivalent un candidat au physique peu avenant sera recruté à un salaire moindre. Une situation qui n’ira pas en se résorbant : une étude anglaise, conduite sur onze mille salariés britanniques (Beauty, Statute and the Labour Market de B. Harper, 2000), prouve que si les plus beaux gagnent un peu plus que la moyenne nationale, les plus laids perçoivent des salaires de 11 à 15 % inférieurs.
"La beauté permet non seulement d’échapper au chômage, mais en plus elle se transforme en prime salariale, résume Jean-François Amadieu. La beauté est un capital humain que le marché du travail reconnaît financièrement." Ainsi démontrée, la dictature que nous imposent les apparences, comme la tyrannie médiatique et sociale que nous subissons, nous apparaissent dans ce qu’elles ont de fondamentalement injustes. "Bien sûr, nous préférerions que ce soient les mérites de chacun qui déterminent l’obtention des diplômes, l’accès aux emplois, etc., plutôt qu’un critère arbitraire et primitif, admet Jean-François Amadieu. Mais c’est en disant la vérité sur cette discrimination qu’on peut élaborer des stratégies visant à limiter, sinon contrer, l’emprise des apparences. Bien connue et bien utilisée par tous, elle peut aussi permettre de bousculer l’ordre imposé."
Des chercheurs américains (Physical Attractivities and Evaluation of Children’s Transgressions de K. K. Dion, 1972) ont demandé à des adultes de juger des enfants de 7 ans accusés d’avoir blessé un camarade avec une boule de neige. Dans un premier temps, les personnes interrogées se sont montrées beaucoup plus tolérantes envers les enfants les plus beaux : la faute était jugée plus légèrement lorsque le fautif était séduisant. Dans un second temps, elles se sont dit convaincues que les enfants beaux récidiveraient moins que les autres. Commentaires du sociologue Jean-François Amadieu : "Non seulement le “laid” est jugé plus responsable de sa faute que le “beau”, mais, de surcroît, cette faute apparaissant comme inscrite dans sa nature profonde, elle est susceptible d’être répétée."

Auteur: Gelly Violaine

Info:

[ inégalités ] [ injustice ] [ allure ]

 

Commentaires: 0

annales

Les régimes institutionnels de la mémoire

On pourrait distinguer la reproduction biologique (un individu se reproduit en individus de la même espèce), l’élevage (on sélectionne par la reproduction un profil génétique donné), la domestication (les êtres humains éduquent des animaux, transmettant par le dressage pratiques et comportements) et enfin l’éducation où des individus d’une espèce enseignent à leurs progénitures leurs propres acquis. La domestication n’est pas l’éducation car ce ne sont pas les animaux qui dressent leurs petits, mais leurs maîtres.

La culture commence quand, au delà du patrimoine génétique, des contenus, pratiques et savoir faire sont transmis d’une génération à une autre. Autrement dit, quand il s’agit de passer de l’élevage à l’éducation, de la répétition des capacités propres à l’espèce à la transmission des contenus acquis.

Cela implique d’une part la prise de conscience d’un déjà-là constitué et d’autre part la mise en place d’outils et procédures pour l’entretenir et donc le transmettre. Il s’agit d’avoir des institutions du sens qui régissent, au niveau d’une société ou d’un collectif, les pratiques culturelles et les modalités de leur transmission.

À travers la notion d’institution, nous visons trois caractéristiques principales : la tradition qui sanctionne l’existence d’un déjà-là ("c’est ainsi que l’on a toujours fait"), une normalisation, qui ajuste et régule ses modalités d’expression selon certains critères ("c’est ainsi qu’il convient de faire"), une transmission qui assure une pérennisation de la tradition, de cet héritage reçu et donc à léguer ("c’est ce qu’il faut continuer de faire"). Les institutions du sens sont donc toujours traditionnelles et normatives, garantes de la culture comme acquis constitué et à transmettre. On retrouve ainsi les institutions scolaires, patrimoniales, culturelles, etc. De la langue qu’on apprend à maîtriser même quand elle est sa langue maternelle pour qu’elle devienne sa langue de culture et de réflexion [Judet & Wisman 2004], aux pratiques traditionnelles (cuisines, artisanat) en passant par les pratiques savantes, la culture est un déjà-là qui s’autonomise en tradition normée pour pouvoir être transmise. C’est le rôle et la mission des institutions du sens que d’accompagner la constitution de la tradition normée et d’en assurer la transmission.

La tension propre à ces institutions sera le conflit permanent entre d’une part la normalisation des contenus et d’autre part une transmission autorisant leur appropriation et transformation. Comment transformer sans trahir, comment transmettre sans figer, est la question que doit traiter toute institution du sens. Si la norme donne les conditions de la répétition et de la conservation du déjà-là, l’invention et l’appropriation seront les conditions pour que ce déjà-là reste accessible, signifiant, exploitable voire utile dans l’environnement contemporain. Une norme formelle et dogmatique rend le déjà-là sans intérêt, une appropriation dérégulée revient à une perte de mémoire et de sens.

Si les institutions du sens reposent en leur possibilité sur la constitution d’un déjà-là et sa reconnaissance comme tel, il en ressort qu’on en passe nécessairement par une institutionnalisation de la mémoire qui a pour fonction de fixer le périmètre du déjà-là, de définir les règles de son accroissement et de son enrichissement, et de proposer des modalités de sa consultation, partage et transmission. Les institutions de la mémoire seront donc des instances nécessaires à la reconnaissance d’un déjà-là constitué et à sa pérennisation.

Il y a plusieurs manières de mettre en place de telles institutions et d’en fixer les missions et les contours. Notre civilisation, au cours de son histoire longue, en distingue selon nous quatre modalités principales [Bachimont 2017] : la mémoire de la preuve (les archives), celle de l’œuvre (les bibliothèques et les musées), celle de l’information (les centres de documentation et de ressources) et enfin l’identité culturelle (le patrimoine).

Aussi anciennes que l’écriture elle-même, les archives [Delsalle 1998] sont avant tout une mémoire de l’événement, une trace de ce qui s’est passé, la permanence de cette dernière permettant de pallier l’évanescence de l’événement. L’archive possède une relation organique à ce dont elle est archive : causée par l’événement dont elle consigne la mémoire, l’archive est le signe, par son existence même, de l’événement et du fait qu’il a bien eu lieu. À travers une telle relation organique, on veut insister sur le fait que, même si l’archive est un document produit par des collectifs culturels, elle est néanmoins provoquée, produite quasi naturellement par l’événement qu’elle relate. Autrement dit, elle n’est pas altérée par un processus interprétatif qui viendrait se mettre en l’événement et sa trace. Pour reprendre la belle image de Marie-Anne Chabin [2000], "Les archives procèdent de l’activité de leur auteur comme les alluvions découlent du fleuve", comme si elles consistaient en un processus naturel.

Ainsi, plus tekmerion que semeion, indice que symbole ou icône *, même si en pratique, il faut bien en passer par l’interprétation et les conventions qui lui sont inhérentes, l’archive peut être la preuve que recherchent l’historien, le juge ou l’enquêteur. Mais, puisque l’événement produit le document, ce dernier ne peut être une preuve pleine et entière que si le seul moyen de produire le document qui deviendra l’archive est que l’événement se soit produit. Par exemple, l’acte notarié est ainsi conçu que la seule manière d’avoir un acte est que l’événement associé (une transaction par exemple) ait eu lieu. Sinon, c’est un faux, c’est-à-dire un document établi pour faire croire que l’événement a eu lieu. L’archive officielle est donc une preuve déductive (si on dispose de l’archive, alors l’événement a eu lieu), les autres ont plutôt une valeur abductive plutôt que déductive (si on dispose de l’archive, la cause la plus probable ou la plus simple est que l’événement ait eu lieu mais on en reste à une présomption). C’est la raison pour laquelle l’authenticité, au sens où le document est bien ce qu’il prétend être, est si fondamentale pour les archives. C’est en effet cette dernière qui permet de retracer le schéma causal qui a produit le document à rebours, en remontant à l’événement.

La seconde modalité ou institution de mémoire mobilise les traces du génie humain, autrement dit ce qui reflète les productions de l’esprit et de la culture. Il ne s’agit pas tant d’avoir des preuves de l’événement que de disposer des traces de ce qui a été pensé ou de ce qui fut créé. L’enjeu n’est pas de savoir ce qui s’est passé, mais de connaître comment cela a été pensé. Du monde comme événement (le fait relaté par un témoignage), on remonte à la culture comme monument (le témoignage comme fait). L’authenticité n’est plus ici gagée par le lien organique entre l’événement et le document, mais entre ce dernier et son auteur. L’authenticité reposera sur l’attribution de son auteur et la détermination du contexte de création pour pouvoir en déduire le sens qu’on peut lui conférer. Les institutions en charge des œuvres sont les bibliothèques, les musées, les conservatoires. L’enjeu n’est pas tant de connaître le passé pour lui-même, mais de se reposer sur les œuvres du passé pour appréhender une part des possibilités du génie humain, une province du sens et de l’être. Les œuvres du passé n’appartiennent pas à un passé révolu, mais au présent, un présent permanent et continuel car les œuvres, sitôt produites, restent un témoignage vivant qu’il est toujours temps et opportun de recevoir. Cela ne veut pas dire qu’il n’est pas important de prendre en compte leur historicité ni leur contexte originel, mais qu’en tant que créations humaines, il est toujours actuel et pertinent pour les êtres humains de les recevoir, accueillir et interpréter.

La troisième institution de la mémoire est celle du savoir, de la connaissance et de l’information. Ni preuve ni œuvre, l’information est le savoir anonyme, sans auteur, apportant la connaissance d’un fait, d’un procédé ou d’un raisonnement possibles. Information de personne, mais information pour tous, l’information prend sa valeur à partir de l’institution qui la produit, ou le processus qui la constitue. De l’information savante gagée par la publication scientifique et son système de relecture par les pairs, à l’information journalistique fondée sur une régulation spécifique, en passant par l’institution scolaire et ses programmes, l’information doit être produite par une institution qui lui sert de caution pour être reçue comme telle et valoir comme connaissance. On comprend qu’une telle notion d’information est le cœur même des activités relevant de ce qu’on a appelé par la suite "l’information scientifique et technique", et qu’elle se formalisa lors de la révolution industrielle [Briet 1951]. Une dimension spécifique de l’information, et faisant rupture avec les figures plus anciennes de l’archive et de la bibliothèque (les preuves et les œuvres), est l’indépendance ou plutôt l’indifférence au support. Peu importe que le document soit un article ou un livre, un journal ou une encyclopédie, numérique ou matériel, il n’importe que par l’information qu’il détient. Derrière cette indifférence se cache un présupposé selon lequel le contenant n’influe pas sur le contenu, que le support matériel ne conditionne pas l’intelligibilité de l’inscription consignée sur le support. Présupposé qu’il est facile de réfuter, aucun changement de support ne pouvant être neutre quant à l’intelligibilité du contenu [Bachimont 2010]. Mais on peut voir derrière ce présupposé, non une erreur quant à la réalité de la dépendance du contenu au contenant, mais l’intérêt exclusif pour un invariant sémantique commun aux différentes expressions rencontrées sur différents supports, où l’on s’intéresse au fait, par exemple, que l’eau bout à 100°, indépendamment de l’expression qui nous a permis d’en prendre connaissance.

Cette conception abstraite du support de l’information entraîne un intérêt exclusif à l’inscription comme expression, à sa grammaire et à son lexique. Privilégiant la forme sur la matière, l’information a un tropisme naturel vers la formalisation et la circulation : formalisation car il s’agit de contrôler l’information uniquement à partir de sa forme, indépendamment de son support ; circulation parce que cette indifférence au support permet en principe la migration d’un support à un autre sans altération de l’information. Cela aboutit fort logiquement aux initiatives comme le Web des données (ou Web sémantique) où le formalisme de l’expression assure les conditions de son interprétation et de sa circulation.

Enfin, le dernier régime est celui de l’identité culturelle ou celui du patrimoine. Ce régime est le plus indéterminé des quatre considérés ici dans la mesure où il mobilise le rapport fondamental à la mémoire et à la culture : il concerne tout objet permettant à un collectif d’accéder à une mémoire, à la mémoire de son identité collective. Le patrimoine est donc, pour utiliser le vocabulaire de Gilbert Simondon [2005], ce qui permet l’individuation d’une identité collective et la constitution d’objets comme vecteurs de cette dernière. Le patrimoine est donc un jeu triple entre des objets, des individus, et un collectif tissant ces derniers ensemble. Aussi tout objet peut-il, en principe, devenir patrimonial, les règles de l’individuation n’étant pas fixées a priori. On ne peut que constater a posteriori que tels ou tels objets "font patrimoine".

L’identité collective est un déjà-là revendiqué et assumé par le collectif. Il s’agit d’une mémoire reconnue comme étant la sienne et associée à un objet qui l’incarne et la porte. Mais la seule caractéristique de cet objet est qu’il est distingué dans sa capacité de porter un souvenir, d’incarner une mémoire, de véhiculer un sens partagé. En ce sens, l’objet patrimonial est un mnémophore, un porteur de mémoire, en plagiant le néologisme naguère proposé par Krzystof Pomian, le sémiophore [1996].

L’objet patrimonial, le mnémophore, ne s’oppose pas aux autres régimes de mémoire que nous avons distingués, mais les intègre comme des modalités possibles de sa déclinaison. En effet, les preuves, œuvres et informations sont porteuses de mémoire et permettent par leur entremise un rapport au passé.

Auteur: Bachimont Bruno

Info: https://journals.openedition.org/signata/2980. *CS Peirce (1978) Écrits sur le signe. Paris, Seuil.

[ conservatisme ] [ pré-mémétique ] [ damnatio memoriae ] [ diachronie ] [ sciences ] [ humaines tiercités ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie

Tout le monde a une théorie sur ce qui se passe dans notre monde. Mais beaucoup sont partielles, ou fragmentaires, ou trop simples – attribuant trop d'importance au "capitalisme", au "mondialisme", à "l'opportunisme" ou aux "conséquences imprévues". Nous devons continuer à essayer de donner un sens à l'ensemble du scénario.

Commençons par quelques grandes hypothèses sur ce qui se passe. L'hypothèse de René Guénon, esquissée pour la première fois vers 1930, était que toutes les civilisations possèdent des pouvoirs spirituels et temporels et incorporent donc en quelque sorte une tension entre les deux : mais que, pour la première fois dans l'histoire, notre modernité, à partir de  1500, a placé le temporel au-dessus de l'Eternel, le matériel au-dessus du spirituel : en bref, 'l'état' au-dessus de 'l'église'.  On a vu quelques hypothèses connexes proposées en même temps : comme celle de Julien Benda selon laquelle les clercs, ou intellectuels, avaient déplacé leur préoccupation : ainsi l'immense valeur qu'ils avaient toujours attribuée aux choses non mondaines était maintenant attribuée aux choses mondaines. C'est-à-dire que les intellectuels étaient maintenant corrompus, en quelque sorte suivistes de profits sales.

Un ami américain a récemment attiré mon attention sur certains des écrits récents d'un romancier et essayiste, Paul Kingsnorth . A l'origine anticapitaliste, il se croyait à gauche, et se retrouve aujourd'hui plus ou moins à droite. Son hypothèse est que le déclin du christianisme dans notre civilisation – déclin de l'éternel et du spirituel – coïncide et a probablement été causé par la montée de ce qu'il nomme "mythe du progrès". Le progrès, c'est la conviction que le monde, ce monde, va mieux. Ce mythe est le genre de chose que nous pouvons associer à Francis Bacon ou John Stuart Mill, ou encore Bayle, Mandeville, Voltaire, Smith, Hegel, Comte, Marx - plus ou moins tout le monde des XVIIe au XIXe siècles, sauf pour des gens un peu plus pointus comme Bossuet ou Maistre, aussi pour Burke à la toute fin de sa vie. Kingsnorth construit une vision très efficace de l'histoire sur cette hypothèse, ce qui lui permet d'expliquer pourquoi gauchistes et corporatistes s'accordent si bien aujourd'hui. Tous, dit-il, veulent du progrès. Ils contribuent tous à ce qu'il appelle la Machine.

Acceptons ces deux hypothèses. Mais je dois en ajouter un troisième, qui ajoute une complication interne à la deuxième, et rend ainsi l'ensemble du scénario un peu plus dynamique. Cela peut même expliquer pourquoi il y a tant de confusion sur ce qui s'est passé. L'hypothèse est qu'il n'y a jamais eu un seul "mythe du progrès" : la puissance du mythe du progrès était qu'il contenait un contradiction interne, comme les traducteurs de Hegel ont eu l'habitude de la nommer : une division intérieure.  Deux positions rivales en désaccord sur le comment alors même qu'elles étaient d'accord sur le quoi . Le quoi étant un présupposé absolu - quelque chose de si fondamental qu'il n'a jamais été remis en question par aucune des parties. Comme c'est toujours le cas, le désaccord au premier plan détournait l'attention de l'accord plus profond qui dominait tout à l'arrière-plan.

Ce sur quoi ils étaient d'accord, c'est que des progrès se produisaient et devaient se produire . Ce sur quoi ils n'étaient pas d'accord, c'était comment cela devait se passer. Je simplifie bien sûr ici, mais simplifier un argument en deux positions est bien moins simple que de le simplifier en une position.

D'un côté il y avait l'argument selon lequel des progrès étaient en cours, que cela nous plaise ou non. Cela se produisait à travers ce qu'Adam Smith appelait la main invisible, ou ce que Samuel Johnson appelait la concaténation secrète, ce que nous appelons parfois maintenant la loi des conséquences imprévues. C'est le processus par lequel de nombreux humains, à la poursuite de leurs propres intérêts individuels, ont contribué à l'émergence d'un bien qu'aucun n'avait jamais voulu, et qu'aucun n'avait anticipé, mais qui pouvait être compris rétrospectivement.

De l'autre côté, il y avait l'argument selon lequel le progrès ne se produirait que si nous adoptions les bonnes croyances rationnelles, les bonnes vues éclairées ( iberté, égalité, fraternité, etc.), et si nous nous efforcions d'imposer au monde les politiques ou les schémas suggéré par les bonnes croyances rationnelles et les bonnes vues éclairées. Il s'agissait de mettre l'accent sur la planification plutôt que sur les conséquences imprévues : et la planification ne pouvait être efficace que si elle était effectuée par ceux au pouvoir. Ainsi, les puissants devaient être subjugués par les experts de l'illumination.

La différence entre ces deux positions est que l'une y voit un processus inconscient , l'autre y voit une impulsion consciente. Ces deux positions ont dominé le débat politique deux siècles durant : d'une part, les uns ont privilégié les marchés et l'activité privée indépendante et apparemment (mais pas réellement ou finalement) égoïste, et d'autre part, un caméralisme, un colbertisme ou un comtisme de la planification scientifique. et l'activité publique collective.

En pratique, bien sûr, les deux ont été mélangées, ont reçu des noms variés, et certaines personnes qui ont commencé d'un côté pour se retrouver de l'autre : pensez à la dérive de John Stuart Mill ou de TH Green du libéralisme au socialisme ; mais considérez également la dérive de Kingsley Amis, Paul Johnson et John Osborne dans l'autre sens. Décoller tout cela est un boulôt de dingue : il faut peut-être le laisser aux historiens qui ont la patience de le faire. Mais les historiens ont tendance à embrouiller les choses... Alors tout ça mérite quelques explications : et l'expliquer dans l'abstrait, comme je le fais ici, permet certainement d'expliquer pourquoi les libéraux ont parfois été d'un côté ou de l'autre, et pourquoi les conservateurs sont tout aussi chimériques. 

Le point de cette hypothèse est de dire que toute la politique des deux derniers siècles fut dominée par des arguments sur la question de savoir si le progrès aurait lieu dans l'observance ou dans la violation, pour ainsi dire : s'il devrait être théorisé consciemment et ensuite imposée par une politique prudente, ou si il devait survenir sans planification délibérée de telle manière que seuls les historiens ultérieurs pourraient le comprendre pleinement. Mais tout ça est terminé. Nous sommes maintenant à l'étape suivante.

Cela s'explique en partie par le fait que, comme le dit Kingsnorth, le mythe du progrès - bien qu'il ne soit pas entièrement mort - parait pratiquer ses derniers rites. Il est sans doute en difficulté depuis les années 1890, a été secoué par la Première Guerre mondiale ; mais il a subi ses chocs récents depuis les années 1970, avec la pollution, la surpopulation, la stagflation, l'ozone, le dioxyde de carbone, les prêts hypothécaires à risque, etc. Pour l'instant les mondialistes ne savent pas exactement comment concilier le cercle du désir de "progrès" (ou, du moins comment être "progressiste") tout en faisant simultanément promotion de la "durabilité". Si nous avons un mythe en ce moment c'est sûrement le mythe de la durabilité. Peut-être que les mondialistes et les localistes comme Kingsnorth constateront que, bien qu'ils soient en désaccord sur beaucoup de choses - COVID-19, par exemple - ils sont d'accord sur la durabilité.

Mais il y a quelque chose à ajouter, une quatrième hypothèse, et c'est vraiment l'hypothèse suprême. J'ai dit que pendant quelques siècles, il y avait la planification contre le laissez-faire , ou la conscience contre les conséquences imprévues - les deux essayant de trouver comment rendre le monde, ce monde, meilleur. Mais il y a autre chose. La quatrième hypothèse est que certains personnages du début du XIXe siècle entrevoyaient que les deux positions pouvaient se confondre. Hegel était l'une de ces figures ; même Marx. Il y en eut d'autres; qui sont nombreux maintenant. Fusion qui signifiait quelque chose comme ce qui suit :

Jusqu'à présent, nous avons fait l'erreur de penser que le bien peut être imposé consciemment - généralement par le biais de préceptes religieux - mais nous avons découvert, grâce à Mandeville, Smith et les économistes, que le bien peut être obtenu par des conséquences involontaires. Ce qui ne signifie cependant pas que nous devrions adopter une politique de laissez-faire : au contraire, maintenant que nous comprenons les conséquences imprévues , nous savons comment fonctionne tout le système inconscient du monde, et puisque nous savons comment intégrer notre connaissance de ceci dans notre politique, nous pouvons enfin parvenir à un ordre mondial scientifique et moral ou probant et justifié parfait.

Est-ce clair? Les Lumières écossaises ont créé l'expert empirique, qui a fusionné avec le progressiste conscient moralement assuré, pour devenir l'espoir du monde. Sans doute, la plupart d'entre nous ont abandonné les fantasmes hégéliens et marxistes de "fin de l'histoire" ou d'"émancipation", mais je pense que l'ombre de ces fantasmes a survécu et s'est achevée dans le récent majoritarisme scientifique et moral, si clairement vu depuis que le COVID-19 est arrivé dans le monde.

Si j'ai raison à propos de cette quatrième hypothèse, cela explique pourquoi nous sommes si confus. Nous ne pouvons pas donner un sens à notre situation en utilisant le vieux langage du "collectivisme" contre "l'individualisme". Le fait est qu'à notre époque post-progressiste, les experts se sentent plus justifiés que jamais pour imposer à chacun un ensemble de protocoles et de préceptes "fondés sur des preuves" et "moralement justifiés". Plus justifiés parce que combinant la connaissance de la façon dont les choses fonctionnent individuellement (par la modélisation et l'observation de processus inconscients ou de conséquences imprévues) avec la certitude sur ce qu'il est juste de faire collectivement (étant donné que les vieux fantasmes de progrès ont été modifiés par une idéologie puritaine et contraignante de durabilité et de survie, ajoutée de diversité, d'équité et d'inclusion - qui sert d'ailleurs plus d'impulsion de retenue que d'anticipation d'une émancipation du marxisme)

Ce n'est pas seulement toxique mais emmêlé. Les niveaux d'hypocrisie et d'auto-tromperie impliqués dans cela sont formidables. Les mondialistes ont une doctrine à toute épreuve dans leur politique durable qui sauve le monde, ou "durabilité". Elle est presque inattaquable, puisqu'elle s'appuie sur les plus grandes réalisations des sciences naturelles et morales. Tout ça bien sûr alimenté par une ancienne cupidité acquisitive, mais aussi par le sentiment qu'il faut offrir quelque chose en échange de leur manque de privilèges à ceux qui ont besoin d'être nivelés ; et tout ça bien sûr rend le monde meilleur, "sauve" la planète, dorant les cages des déshérités et les palais des privilégiés de la même laque d'or insensée.

Peut-être, comme l'entrevoient Guenon et Kingsnorth – également Delingpole et Hitchens – la vérité est-elle que nous devons réellement remonter à travers toute l'ère de la durabilité et l'ère du progrès jusqu'à l'ère de la foi. Certes, quelqu'un ou quelque chose doit forcer ces "élites" à se soumettre à une vision supérieure : et je pense que la seule façon de donner un sens à cela pour le moment est d'imaginer qu'une église ou un prophète ou un penseur visionnaire puisse abattre leur État - la laïcité corporate-, leur montrer que leur foi n'est qu'une idéologie servant leurs intérêts, et qu'ils doivent se soumettre à une doctrine authentiquement fondée sur la grâce,  apte à admettre la faute, l'erreur, voire le péché. Cela ne se ferait pas par des excuses publiques ou une démonstration politique hypocrite, mais en interrogeant leurs propres âmes.

Je suis pas certain que c'est ce qui arrivera, ni même que cela devrait arriver (ou que cela pourrait arriver) : mais c'est certainement le genre de chose qui doit arriver. Autrement dit, c'est le genre de chose que nous devrions imaginer arriver. Ce qui se passera sera soit du genre Oie Blanche ancienne, soit peut-être un événement inattendu style "Black Swan" (pas nécessairement une bonne chose : nous semblons trop aimer la crise en ce moment). Mais, de toute façon, une sensibilité réactionnaire semble être la seule capable de manifester une quelconque conscience de ce qui se passe.

Pour clarifier, permettez-moi d'énoncer à nouveau les quatre hypothèses sur ce phénomène :

1. A travers toutes les époques, il y a eu un équilibre entre spiritualité et  sécularisation. Dans notre modernité, la sécularité est dominante. Il n'y a que ce monde.

2. Depuis environ trois siècles, nous croyons que ce monde s'améliore et devrait s'améliorer. C'est le "mythe du progrès".

3. Il y a toujours eu des désaccords sur le progrès : certains pensaient qu'il était le fruit du hasard et de l'intérêt individuel ; d'autres pensaient qu'il ne pouvait être que le résultat d'une conception délibérée.

4. Nous ne devons pas ignorer qu'il y a eu une fusion très intelligente de ces deux positions : une fusion qui ne s'est pas évanouie avec l'évanouissement du "mythe du progrès" mais qui survit pour soutenir la politique étrange et nouvelle de ce que nous pourrions appeler le "mythe de la durabilité". Cette fusion est extrêmement condescendante et sûre d'elle-même car elle associe la certitude scientifique de ce qui s'est passé inconsciemment pour améliorer le monde à la certitude morale de ce qui devrait maintenant être fait consciemment pour améliorer le monde. Elle semble réunir individu et collectif d'une manière qui est censée rendre impossible tout renoncement.

 

Auteur: Alexander James

Info: Daily Skeptic. Quatre hypothèses sur l'élite mondiale laïque-corporatiste, 20 février 2023. Trad Mg, avec DeePL

[ état des lieux ]

 

Commentaires: 0

Ajouté à la BD par miguel

multi-milliardaires

DE LA SURVIE DES PLUS RICHES
Quand des patrons de fonds d'investissement new-yorkais font appel à un spécialiste de la société de l'information, afin d'améliorer leurs chances de survie après l'Évènement qui détruira le monde tel que nous le connaissons.

AVERTISSEMENT, CECI N'EST PAS UNE FICTION
L’année dernière, j’ai été invité à donner une conférence dans un complexe hôtelier d’hyper-luxe face à ce que je pensais être un groupe d’une centaine de banquiers spécialisés dans l’investissement. On ne m’avait jamais proposé une somme aussi importante pour une intervention - presque la moitié de mon salaire annuel de professeur - et délivrer mes visions sur "l’avenir de la technologie".

Je n’ai jamais aimé parler du futur. Ce genre de séance d’échange se termine fatalement par un interrogatoire, à l’occasion duquel on me demande de me prononcer sur les dernières "tendances" technologiques, comme s’il s’agissait d’indicateurs boursiers pour les investisseurs : blockchain, impression 3D, CRISPR. L’audience s’y préoccupe généralement moins des technologies en elles-mêmes et de leurs implications, que de savoir si elles méritent ou non que l’on parie sur elles, en mode binaire. Mais l’argent ayant le dernier mot, j’ai accepté le boulot.

À mon arrivée, on m’a accompagné dans ce que j’ai cru n’être qu’une vulgaire salle technique. Mais alors que je m’attendais à ce que l’on me branche un microphone ou à ce que l’on m’amène sur scène, on m’a simplement invité à m’asseoir à une grande table de réunion, pendant que mon public faisait son entrée : cinq gars ultra-riches - oui, uniquement des hommes - tous issus des plus hautes sphères de la finance internationale. Dès nos premiers échanges, j’ai réalisé qu’ils n’étaient pas là pour le topo que je leur avais préparé sur le futur de la technologie. Ils étaient venus avec leurs propres questions.

Ça a d’abord commencé de manière anodine. Ethereum ou Bitcoin ? L’informatique quantique est-elle une réalité ? Lentement mais sûrement, ils m’ont amené vers le véritable sujet de leurs préoccupations.

Quelle sera la région du monde la plus épargnée par la prochaine crise climatique : la nouvelle Zélande ou l’Alaska ? Est-ce que Google construit réellement un nouveau foyer pour le cerveau de Ray Kurzweil ? Est-ce que sa conscience survivra à cette transition ou bien mourra-t-elle pour renaître ensuite ? Enfin, le PDG d’une société de courtage s’est inquiété, après avoir mentionné le bunker sous-terrain dont il achevait la construction : "Comment puis-je conserver le contrôle de mes forces de sécurité, après l’Événement ?"

L’Évènement. Un euphémisme qu’ils employaient pour évoquer l’effondrement environnemental, les troubles sociaux, l’explosion nucléaire, le nouveau virus impossible à endiguer ou encore l’attaque informatique d’un Mr Robot qui ferait à lui seul planter tout le système.

Cette question allait nous occuper durant toute l’heure restante. Ils avaient conscience que des gardes armés seraient nécessaires pour protéger leurs murs des foules en colère. Mais comment payer ces gardes, le jour où l’argent n’aurait plus de valeur ? Et comment les empêcher de se choisir un nouveau leader ? Ces milliardaires envisageaient d’enfermer leurs stocks de nourriture derrière des portes blindées aux serrures cryptées, dont eux seuls détiendraient les codes. D’équiper chaque garde d’un collier disciplinaire, comme garantie de leur survie. Ou encore, si la technologie le permettait à temps, de construire des robots qui serviraient à la fois de gardes et de force de travail.

C’est là que ça m’a frappé. Pour ces messieurs, notre discussion portait bien sur le futur de la technologie. Inspirés par le projet de colonisation de la planète Mars d’Elon Musk, les tentatives d’inversion du processus du vieillissement de Peter Thiel, ou encore les expériences de Sam Altman et Ray de Kurzweil qui ambitionnent de télécharger leurs esprits dans de super-ordinateurs, ils se préparaient à un avenir numérique qui avait moins à voir avec l’idée de construire un monde meilleur que de transcender la condition humaine et de se préserver de dangers aussi réels qu’immédiats, comme le changement climatique, la montée des océans, les migrations de masse, les pandémies planétaires, les paniques identitaires et l’épuisement des ressources. Pour eux, le futur de la technologie se résumait à une seule finalité : fuir.

Il n’y a rien de mal aux visions les plus follement optimistes sur la manière dont la technologie pourrait bénéficier à l’ensemble de la société humaine. Mais l’actuel engouement pour les utopies post-humaines est d’un tout autre ordre. Il s’agit moins d’une vision de la migration de l’ensemble de notre espèce vers une nouvelle condition humaine, que d’une quête pour transcender tout ce qui nous constitue : nos corps, notre interdépendance, la compassion, la vulnérabilité et la complexité. Comme l’indiquent maintenant depuis plusieurs années les philosophes de la technologie, le prisme transhumaniste réduit trop facilement la réalité à un conglomérat de données, en concluant que "les humains ne sont rien d’autre que des centres de traitement de l’information".

L’évolution humaine s’apparente alors à une sorte de jeu vidéo labyrinthique, dont les heureux gagnants balisent le chemin de la sortie pour leurs partenaires les plus privilégiés. S’agit-il de Musk, Bezos, Thiel… Zuckerberg ? Ces quelques milliardaires sont les gagnants présupposés d’une économie numérique régie par une loi de la jungle qui sévit dans le monde des affaires et de la spéculation dont ils sont eux-mêmes issus.

Bien sûr, il n’en n’a pas toujours été ainsi. Il y a eu une période courte, au début des années 1990, où l’avenir numérique apparaissait fertile, enthousiasmant, ouvert à la création. La technologie y devenait le terrain de jeu de la contre-culture, qui vit là l’opportunité de créer un futur plus inclusif, mieux réparti et pro-humain. Mais les intérêts commerciaux n’y ont vu pour leur part que de nouveaux potentiels pour leurs vieux réflexes. Et trop de technologues se sont laissés séduire par des IPO (introduction en bourse) chimériques. Les futurs numériques s’en retrouvèrent envisagés sous le même prisme que le cours de la bourse ou du coton, dans ce même jeu dangereux de paris et de prédictions. Ainsi, la moindre étude documentaire, le moindre article ou livre blanc publié sur ce thème n’étaient plus interprété que comme un nouvel indice boursier. Le futur s’est transformé en une sorte de scénario prédestiné, sur lequel on parie à grands renforts de capital-risque, mais qu’on laisse se produire de manière passive, plus que comme quelque chose que l’on crée au travers de nos choix présents et de nos espoirs pour l’espèce humaine.

Ce qui a libéré chacun d’entre nous des implications morales de son activité. Le développement technologique est devenu moins une affaire d’épanouissement collectif que de survie individuelle. Pire, comme j’ai pu l’apprendre à mes dépens, le simple fait de pointer cette dérive suffisait à vous désigner d’emblée comme un ennemi rétrograde du marché, un ringard technophobe.

Et plutôt que de questionner la dimension éthique de pratiques qui exploitent et appauvrissent les masses au profit d’une minorité, la majorité des universitaires, des journalistes et des écrivains de science fiction ont préféré se focaliser sur des implications plus abstraites et périphériques : "Est-il juste qu’un trader utilise des drogues nootropiques ? Doit-on greffer des implants aux enfants pour leur permettre de parler des langues étrangères? Les véhicules intelligents doivent-ils privilégier la sécurité des piétons ou celle de leurs usagers? Est-ce que les premières colonies martiennes se doivent d’adopter un modèle démocratique? Modifier son ADN, est-ce modifier son identité ? Est-ce que les robots doivent avoir des droits ?".

Sans nier le côté divertissant de ces questions sur un plan philosophique, force est d’admettre qu’elles ne pèsent pas lourd face aux vrais enjeux moraux posés par le développement technologique débridé, au nom du capitalisme pratiqué par les multinationales. Les plateformes numériques ont modifié un marché déjà fondé sur l’exploitation (Walmart) pour donner naissance à un successeur encore plus déshumanisant (Amazon). La plupart d’entre-nous sommes conscients de ces dérives, rendues visibles par la recrudescence des emplois automatisés, par l’explosion de l’économie à la tâche et la disparition du commerce local de détails.

Mais c’est encore vis-à-vis de l’environnement et des populations les plus pauvres que ce capitalisme numérique désinhibé produit ses effets les plus dévastateurs. La fabrication de certains de nos ordinateurs et de nos smartphones reste assujettie au travail forcé et à l’esclavage. Une dépendance si consubstantielle que Fairphone, l’entreprise qui ambitionnait de fabriquer et de commercialiser des téléphones éthiques, s’est vue obligée de reconnaître que c’était en réalité impossible. Son fondateur se réfère aujourd’hui tristement à ses produits comme étant "plus" éthiques.

Pendant ce temps, l’extraction de métaux et de terres rares, conjuguée au stockage de nos déchets technologiques, ravage des habitats humains transformés en véritables décharges toxiques, dans lesquels es enfants et des familles de paysans viennent glaner de maigres restes utilisables, dans l’espoir de les revendre plus tard aux fabricants.

Nous aurons beau nous réfugier dans une réalité alternative, en cachant nos regards derrière des lunettes de réalité virtuelle, cette sous-traitance de la misère et de la toxicité n’en disparaîtra pas pour autant. De fait, plus nous en ignorerons les répercussions sociales, économiques et environnementales, plus elles s’aggraveront. En motivant toujours plus de déresponsabilisation, d’isolement et de fantasmes apocalyptiques, dont on cherchera à se prémunir avec toujours plus de technologies et de business plans. Le cycle se nourrit de lui-même.

Plus nous adhérerons à cette vision du monde, plus les humains apparaitront comme la source du problème et la technologie comme la solution. L’essence même de ce qui caractérise l’humain est moins traité comme une fonctionnalité que comme une perturbation. Quels que furent les biais idéologiques qui ont mené à leur émergence, les technologies bénéficient d’une aura de neutralité. Et si elles induisent parfois des dérives comportementales, celles-ci ne seraient que le reflet de nos natures corrompues. Comme si nos difficultés ne résultaient que de notre sauvagerie constitutive. À l’instar de l’inefficacité d’un système de taxis locaux pouvant être "résolue" par une application qui ruine les chauffeurs humains, les inconsistances contrariantes de notre psyché pouvait être corrigée par une mise à jour digitale ou génétique.

Selon l’orthodoxie techno-solutionniste, le point culminant de l’évolution humaine consisterait enfin à transférer notre conscience dans un ordinateur, ou encore mieux, à accepter la technologie comme notre successeur dans l’évolution des espèces. Comme les adeptes d’un culte gnostique, nous souhaitons atteindre la prochaine phase transcendante de notre évolution, en nous délestant de nos corps et en les abandonnant, avec nos péchés et nos problèmes.

Nos films et nos productions télévisuelles continuent d’alimenter ces fantasmes. Les séries sur les zombies dépeignent ainsi une post-apocalypse où les gens ne valent pas mieux que les morts vivants - et semblent en être conscients. Pire, ces projections fictives invitent les spectateurs à envisager l’avenir comme une bataille à somme nulle entre les survivants, où la survie d’un groupe dépend mécaniquement de la disparition d’un autre. Jusqu’à la série Westworld, basée sur un roman de science-fiction dans lequel les robots deviennent fous et qui clôt sa seconde saison sur une ultime révélation : les êtres humains sont plus simples et plus prévisibles que les intelligences artificielles qu’ils ont créées. Les robots y apprennent que nous nous réduisons, tous autant que nous sommes, à quelques lignes de code et que notre libre arbitre n’est qu’une illusion. Zut ! Dans cette série, les robots eux-mêmes veulent échapper aux limites de leurs corps et passer le reste de leurs vies dans une simulation informatique.

Seul un profond dégoût pour l’humanité autorise une telle gymnastique mentale, en inversant ainsi les rôles de l’homme et de la machine. Modifions-les ou fuyons-les, pour toujours.

Ainsi, nous nous retrouvons face à des techno-milliardaires qui expédient leurs voiture électriques dans l’espace, comme si ça symbolisait autre chose que la capacité d’un milliardaire à assurer la promotion de sa propre compagnie. Et quand bien même quelques élus parviendraient à rallier la planète Mars pour y subsister dans une sorte de bulle artificielle - malgré notre incapacité à maintenir des telles bulles sur Terre, malgré les milliards de dollars engloutis dans les projets Biosphère - le résultat s’apparenterait plus à une espèce de chaloupe luxueuse réservée une élite qu’à la perpétuation de la diaspora humaine.

Quand ces responsables de fonds d’investissement m’ont interrogé sur la meilleure manière de maintenir leur autorité sur leurs forces de sécurité "après l’Évènement", je leur ai suggéré de traiter leurs employés du mieux possible, dès maintenant. De se comporter avec eux comme s’il s’agissait des membres de leur propre famille. Et que plus ils insuffleraient cette éthique inclusive à leur pratiques commerciales, à la gestion de leurs chaînes d’approvisionnement, au développement durable et à la répartition des richesses, moins il y aurait de chances que "l’Événement" se produise. Qu’ils auraient tout intérêt à employer cette magie technologique au service d’enjeux, certes moins romantiques, mais plus collectifs, dès aujourd’hui.

Mon optimisme les a fait sourire, mais pas au point de les convaincre. Éviter la catastrophe ne les intéressait finalement pas, persuadés qu’ils sont que nous sommes déjà trop engagés dans cette direction. Malgré le pouvoir que leur confèrent leurs immenses fortunes, ils ne veulent pas croire en leur propre capacité d’infléchir sur le cours des événements. Ils achètent les scénarios les plus sombres et misent sur leur argent et la technologie pour s’en prémunir - surtout s’ils peuvent disposer d’un siège dans la prochaine fusée pour Mars.

Heureusement, ceux d’entre nous qui n’ont pas de quoi financer le reniement de leur propre humanité disposent de meilleures options. Rien nous force à utiliser la technologie de manière aussi antisociale et destructive. Nous pouvons nous transformer en individus consommateurs, aux profils formatés par notre arsenal de plateformes et d’appareils connectés, ou nous pouvons nous souvenir qu’un être humain véritablement évolué ne fonctionne pas seul.

Être humain ne se définit pas dans notre capacité à fuir ou à survivre individuellement. C’est un sport d’équipe. Quel que soit notre futur, il se produira ensemble.

Auteur: Rushkoff Douglas

Info: Quand les riches conspirent pour nous laisser derrière. Avec l’accord de l’auteur, traduction de Céleste Bruandet, avec la participation de Laurent Courau

[ prospective ] [ super-riches ] [ oligarques ]

 

Commentaires: 0