Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 322
Temps de recherche: 0.0469s

confusion

1 Je lis en page quatre de mon quotidien que les campagnes de mesures au-dessus de l'Antarctique ne sont pas bonnes cette année : le trou de la couche d’ozone s’y agrandit dangereusement. En lisant plus avant, je passe des chimistes de la haute atmosphère aux P-DG d’Atochem et de Monsanto, lesquels modifient leurs chaînes de production pour remplacer les innocents chlorofluorocarbones, accusés de crime contre l’écosphère. Quelques paragraphes plus loin, ce sont les chefs d’État des grands pays industrialisés qui se mêlent de chimie, de réfrigérateurs, d’aérosols et de gaz inertes. Mais en bas de la colonne, voici que les météorologues ne sont plus d’accord avec les chimistes et parlent de fluctuations cycliques. Du coup, les industriels ne savent plus que faire. Les têtes couronnées hésitent elles aussi. Faut-il attendre ? Est-il déjà trop tard ? Plus bas, les pays du tiers monde et les écologistes ajoutent leur grain de sel et parlent de traités internationaux, de droit des générations futures, de droit au développement et de moratoires.

2 Le même article mêle ainsi réactions chimiques et réactions politiques. Un même fil attache la plus ésotérique des sciences et la plus basse politique, le ciel le plus lointain et telle usine dans la banlieue de Lyon, le danger le plus global et les prochaines élections, ou le prochain conseil d’administration. Les tailles, les enjeux, les durées, les acteurs ne sont pas comparables et pourtant les voilà engagés dans la même histoire.

3 En page six de mon quotidien, j’apprends que le virus du sida de Paris a contaminé celui du laboratoire du professeur Gallo, que MM. Chirac et Reagan avaient pourtant juré solennellement de ne pas remettre en cause l’historique de cette découverte, que les industries chimiques tardent à mettre sur le marché des médicaments réclamés à hauts cris par des malades organisés en associations militantes, que l’épidémie se répand en Afrique noire. De nouveau, des têtes couronnées, des chimistes, des biologistes, des patients désespérés, des industriels se trouvent engagés dans une même histoire incertaine.

4 En page huit, il s’agit d’ordinateurs et de puces contrôlées par les Japonais, en page neuf d’embryons congelés, en page dix de forêt qui brûle entraînant dans ses colonnes de fumées des espèces rares que certains naturalistes veulent protéger ; en page onze, de baleines munies de colliers auxquels sont accrochées des radios balises ; toujours en page onze, c’est un terril du Nord, symbole de l’exploitation ouvrière, que l’on vient de classer comme réserve écologique à cause de la flore rare qui s’y est développée. En page douze, le pape, les évêques, Roussel-Uclaf, les trompes de Fallope, les fondamentalistes texans s’assemblent autour du même contraceptif en une étrange cohorte. En page quatorze, c’est le nombre de lignes de la télévision haute définition qui rattache M. Delors, Thomson, la CEE, les commissions de standardisation, les Japonais encore, et les producteurs de téléfilms. Changez de quelques lignes le standard de l’écran, et les milliards de francs, les millions de téléviseurs, les milliers d’heures de téléfilms, les centaines d’ingénieurs, les dizaines de P-DG valsent.

5 Heureusement qu’il y a dans le journal quelques pages reposantes où l’on parle de pure politique (une réunion du parti radical), et le supplément des livres où les romans relatent les aventures exaltantes du moi profond (je t’aime, moi non plus). Sans ces pages lisses, on attraperait le tournis. C’est qu’ils se multiplient, ces articles hybrides qui dessinent des imbroglios de science, de politique, d’économie, de droit, de religion, de technique, de fiction. Si la lecture du journal quotidien est la prière de l’homme moderne, alors c’est un homme bien étrange qui prie aujourd’hui en lisant ces affaires embrouillées. Toute la culture et toute la nature s’y trouvent rebrassées chaque jour.

6 Pourtant, nul ne paraît s’en soucier. Les pages Économie, Politique, Sciences, Livres, Culture, Religion, Faits divers se partagent les maquettes comme si de rien n’était. Le plus petit virus du sida vous fait passer du sexe à l’inconscient, à l’Afrique, aux cultures de cellules, à l’ADN, à San Francisco, mais les analystes, les penseurs, les journalistes et les décideurs vous découperont le fin réseau que le virus dessine en petits compartiments propres où l’on ne trouvera que de la science, que de l’économie, que des représentations sociales, que des faits divers, que de la pitié, que du sexe. Pressez le plus innocent aérosol et vous serez dirigés vers l'Antarctique, et de là vers l’université de Californie à Irvine, les chaînes de montage de Lyon, la chimie des gaz inertes, et de là peut-être vers l’ONU, mais ce fil fragile sera rompu en autant de segments qu’il y a de disciplines pures : ne mélangeons pas la connaissance, l’intérêt, la justice, le pouvoir. Ne mélangeons pas le ciel et la terre, le global et le local, l’humain et l’inhumain. "Mais ces imbroglios font le mélange, direz-vous, ils tissent notre monde ?" — "Qu’ils soient comme s’ils n’existaient pas", répondent les analystes. Ils ont tranché le nœud gordien avec un glaive bien affuté. Le timon est rompu : à gauche la connaissance des choses, à droite l’intérêt, le pouvoir et la politique des hommes.

Auteur: Latour Bruno

Info: Nous n'avons jamais été modernes. La prolifération des hybrides. Incipit

[ binarisme simplificateur ] [ infobésité ]

 

Commentaires: 0

Ajouté à la BD par miguel

pesanteur

Nouvelles preuves : les ondes sonores transporteraient réellement de la masse

En général, lorsque nous pensons aux ondes sonores, nous imaginons des vibrations invisibles se déplaçant en apesanteur dans les airs, et sans masse. Mais cela pourrait bien être sur le point de changer. Des physiciens viennent de fournir une preuve supplémentaire que les"particules" sonores peuvent réellement transporter des petites quantités de masse. Ces preuves impliquent donc également que les ondes sonores peuvent produire leurs propres champs gravitationnels, ou un équivalent se comportant comme tel.

Mais avant d’approfondir le sujet, reprenons tout d’abord la base. Par exemple, si vous frappez un ballon avec votre pied, vous y transmettez de l’énergie. Einstein ajouterait que vous avez également contribué un peu à la masse du ballon, en l’accélérant. Mais si ce ballon est une particule minuscule et que le coup de pied est une onde sonore, vous pouvez imaginer la même chose. Pourtant, depuis des décennies, les physiciens se disputent pour savoir si l’élan d’une vague de particules représente une masse nette, ou pas.

L’année dernière, le physicien Alberto Nicolis de l’Université Columbia à New York a travaillé avec un collègue de l’Université de Pennsylvanie à Philadelphie pour étudier la manière dont différentes ondes se désintègrent et se dispersent dans un fluide à l’hélium extrêmement froid. Non seulement l’équipe de chercheurs a montré que les sons peuvent en réalité générer une valeur non nulle concernant la masse, mais cette dernière pourrait également"flotter" de manière étrange, le long des champs gravitationnels, dans un sens anti-gravitationnel.

Bien que les chercheurs aient affirmé cette possibilité, leur étude était tout de même limitée à un ensemble spécifique de conditions. De ce fait, Nicolis a utilisé un ensemble de techniques différentes pour montrer que les sons ont une masse dans les fluides et les solides ordinaires, et qu’ils peuvent même créer leur propre champ gravitationnel faible.

Leur nouvelle conclusion contredit les affirmations selon lesquelles les phonons sont sans masse. À présent, selon cette nouvelle recherche, nous savons que ces derniers ne répondent pas simplement à un champ de gravitation, mais qu’ils sont également une source de champ gravitationnel.

Dans un sens newtonien, telle est la définition même de la masse. Alors pourquoi y a-t-il tant de confusion sur cette question ? En fait, le problème réside dans la manière dont les ondes se déplacent dans un milieu donné. Tout comme une onde lumineuse est appelée un photon, une onde vibratoire (du son) peut être considérée comme une unité appelée"phonon".

Imaginez-vous immobile lors d’un concert, et que vous profitez du spectacle. La masse de votre corps est la même que lorsque vous vous êtes levés le matin. Puis vient une musique plus entraînante et votre voisin vous pousse, accélérant de ce fait votre corps. Selon la loi d’Einstein, qui dit que l’énergie est égale à la masse multipliée par la vitesse de la lumière au carré : le peu d’énergie que vous gagnez avec la poussée, est également de la masse.

Donc, en entrant en collision avec une autre personne, l’énergie y est transférée avec un peu de masse, de manière imperceptible. (Dans cet exemple imagé, les corps se heurtant à d’autres corps, représentent les phonons). Dans ces conditions simples, le mouvement de va-et-vient parfait des corps et le transfert direct de la quantité de mouvement peuvent être décrits comme une forme de dispersion linéaire. Tandis que les niveaux d’énergie peuvent fluctuer pendant ledit va-et-vient, votre corps se réinitialise pour ne pas donner de masse au cycle de phonons complet.

Mais la réalité n’est pas toujours aussi simple… Les ondes lumineuses se déplaçant dans le vide et les phonons dans un matériau théoriquement parfait pourraient bien être linéaires, mais les solides et les fluides se bousculant obéissent à diverses autres lois en fonction de certains champs et influences. Et ces conditions sont bien complexes : ainsi, à l’aide d’approximations connues sous le nom de théorie des champs effectifs, Angelo Esposito et Rafael Krichevsk, de l’Université Columbia et collègues de Nicoli, ont pu comprendre comment le phonon se déplace à travers de tels supports et comment calculer leur réponse à un champ gravitationnel.

Ces derniers ont pu démontrer que, même dans des conditions dites désordonnées du"monde réel", les ondes sonores pouvaient effectivement transporter une certaine masse. Bien entendu, cette masse n’est pas vraiment conséquente et reste minime, comme on peut s’y attendre. Nous parlons plutôt d’une quantité d’énergie contenue dans le phonon, mais divisée par le carré de la vitesse de la lumière. C’est donc une masse… minuscule.

Avec cette étude, il est également important de garder à l’esprit que les mathématiques sur lesquelles repose l’allégation n’ont pas encore été mises à l’épreuve. À présent, les scientifiques devront mesurer les changements gravitationnels d’atomes refroidis à une température proche du zéro absolu, ce qui pourrait être possible si nous explorons de tels condensats dans l’espace.

Mais grâce à ces découvertes, les chercheurs suggèrent qu’il serait également, et notamment, plus simple de "peser" un séisme. En effet, le son généré par un grand tremblement de terre pourrait représenter une masse conséquente.

Dans tous les cas, nous attendons les résultats des prochaines recherches dans ce domaine avec grande impatience !

Auteur: Internet

Info: Stéphanie Schmidt 7 mars 2019, https://trustmyscience.com

[ fréquences ]

 

Commentaires: 0

Ajouté à la BD par miguel

sémiotique postmoderne

Le dossier actualisé

La prise de conscience que l'expérience humaine, étant avant tout une expérience animale, ne commence pas simplement avec l'ens reale mais avec un monde d'objets qui sont normalement (au moins dans les temps historiques, sinon préhistoriques) constitués de façon prédominante par l'entia rationis (et incluent l'entia realia formellement reconnue comme telle seulement comme une dimension virtuelle et indistincte de ses particularités) n'est pas sans précédent dans l'histoire de la philosophie. Mais la thématisation intégrale de cette prise de conscience est sans précédent, on peut donc dire qu'elle constitue l'essence de la postmodernité dans la mesure où nous devons la concevoir comme une époque philosophique distincte dans le sillage du développement philosophique principal qui va de Descartes au XVIIe siècle à Wittgenstein et Husserl au vingtième siècle. Heidegger a souligné la nécessité d'une telle thématisation sous la rubrique classique de l'"être", mais il n'est allé que jusqu'à poser la question à laquelle la sémiotique commence à répondre. Pourquoi, se demandait-il, dans les termes d'une intersémioticité qui résonne avec celle de von Uexküll, que les humains expérimentent les êtres comme présents à portée de main plutôt que prêt-à-l'emploi, ce qui est plus "proche" de nous et tout à fait comment les êtres sont donnés en grande proximités pour la plupart?  La réponse se trouve dans la différence, dans ce qui est distinctif, d'un Umwelt vécu sur la base d'un Innenwelt ayant le langage comme composante dans sa formation de représentations.  

Le monde extérieur est une espèce de représentation spécifiquement humaine. La quasi-erreur provient de la confusion systématique entre objets et "choses", ce qui conduit à une confusion de la "réalité extérieure". (comme c'est devenu habituel dans la philosophie) avec la notion plus fondamentale d'ens reale, qui n'est pas identique au "monde extérieur", ni le point de départ en tant que tel de la connaissance spécifique à l'espèce humaine, mais simplement une dimension reconnaissable vécue dans son objectivité. Le "monde extérieur" ne se trouve pas en dessous ou en dehors de la pensée et du langage, comme ont a eu tendance à imaginer, mais il est précisément donné, dans quelque mesure que ce soit, au sein de l'expérience objective, comme nous l'a appris la sémiotique dès les 30 premières années. 

Sebeok aimait citer, tout en la réévaluant constamment, l'affirmation de Bohr selon laquelle "Nous sommes suspendus dans le langage de telle manière que nous ne pouvons pas dire ce qui est en haut et ce qui est en bas" (French & Kennedy, 1985, p.302). Selon moi, c'est une affirmation dont la justesse et son interprétation la meilleure dépendentent du fait que nous sommes des animaux linguistiques et pas seulement des animaux perceptifs comme je l'ai l'ai soutenu assez longuement (Deely, 2002). 

En tant qu'animaux linguistiques, nous pouvons prendre conscience non seulement de la différence entre une chose et un objet, entre le monde objectif et l'environnement physique, mais aussi de la différence entre les deux. 

Nous pouvons également prendre conscience du statut du langage en tant que système de signes, et de sa dépendance envers d'autres signes dans la constitution des objets. Ce sont ces objets et leurs interconnexions qui, ensemble, forment notre expérience de la "réalité" (jusqu'ici semblable à celle de n'importe quel autre animal) ; mais dans cette sphère d'expérience objective, grâce au langage, nous pouvons aussi nous faire une idée de la "réalité" par l'établissement d'un sens intelligible qui n'est pas simplement donné dans la perception, mais qui est atteint à travers la sensation.  Et avec cette idée ainsi fondée expérimentalement, peut-être seulement avec cette idée, que l'animal humain commence à s'éveiller à son humanité. Notre espèce est attirée par cet sortrie de l' aborigène pour se lancer sur la longue route de la philosophie et de la science, pour finalement rencontrer - assez tard dans ce périple - ce carrefour dont l'une des bifurcations est la Voie des Signes. À ce moment-là, l'animal humain se rend compte que, si tous les animaux et peut-être toute la nature sont sémiosiques, l'animal humain seul est un animal sémiotique ; et dans cette prise de conscience, que peu ou personne n'a fait plus que Sebeok, inaugure, en philosophie du moins, la culture intellectuelle postmoderne- en fait, elle prend  ici son envol. La quasi-erreur du monde extérieur n'a plus besoin de nous tromper ou de nous déconcerter, car sa nature et son origine ont été exposées par la clarification  même de cette ouverture de la Voie des Signes. Nous voyons maintenant que nous avons mis au jour  un chemin qui mène "partout dans la nature, y compris dans les domaines où les humains n'ont jamais mis les pieds ", mais aussi vers une compréhension de laquelle la sémiotique nous donne les moyens d'y tendre plus intégralement. Appelons cela l'horizon interprétatif postmoderne, peut-être même la "coïncidence de la communication avec l'être" (Petrilli & Ponzio, 2001, p. 54). C'est le cœur de la sémiotique, qui défend contre la modernité cette conviction médiévale que la science moderne n'a jamais totalement abandonnée, malgré les philosophes : ens et verum convertuntur, "lcommunication et être sont coextensifs". Être pour la nature, c'est être intelligible pour l'animal dont le destin est de comprendre.

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam, conclusion. Trad Mg

[ sémiotique vs sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

pouvoir sémantique

Wokisme, un protestantisme déréglé?

À l’instar de plusieurs chercheurs américains qu’il cite largement dans son étude*, l'auteur observe dans cet activisme progressiste un post-protestantisme débarrassé de sa théologie, soit un nouveau puritanisme entièrement sécularisé.

L’analogie? "La rédemption des péchés du monde ne se réalise plus à travers le sacrifice christique, mais par celui du bouc émissaire, à savoir la figure de l’homme blanc hétérosexuel, symbole qui réunit les trois fautes à la racine des injustices sexuelles, raciales et de genre: la masculinité, la blanchité et l’hétéronormativité", lit-on dans le document. Ou encore: "Les rêves d’une société parfaite que le christianisme reportait à un Royaume céleste doivent être matérialisés ici-bas et immédiatement." Interview avec un chercheur très critique à l’endroit de son objet d’étude.

- Le wokisme découlerait du protestantisme. Comment cela?

- Un certain nombre d’intellectuels protestants et catholiques nord-américains analysent le phénomène woke comme une forme de protestantisme sécularisé, c’est-à-dire l’idée qu’un certain nombre de thèmes chrétiens (l’Éden, le péché originel, la confession, le blasphème, etc.) ont été capturés par la frange progressiste de la gauche et transférés dans le champ politique. L’orthodoxie morale n’est plus produite par les Églises mais par les divers activismes qui composent le mouvement de la Justice Sociale (anti-racisme, droits LGBT, féminisme, etc. ndlr).

- Concrètement, de quelle manière se manifeste ce nouveau puritanisme?

- De multiples manières et à différents étages de la société. Essentiellement, ce puritanisme est le produit de l’hégémonie de la gauche dans les champs intellectuel et culturel. Il fabrique des hiérarchies et des tabous utiles à un certain nombre de groupes d’intérêt et circonscrit les interprétations dicibles dans les universités et les grands médias.

- On assiste, avec ce courant, à une nouvelle moralisation de l’espace public, avec une mobilisation autour de la notion de justice sociale et le souci des minorités. Ne faudrait-il pas s’en réjouir?

- Plus d’un s’en réjouissent, mais je ne partage pas cet optimisme. L’impact des idées politiques ne s’évalue pas à partir des intentions de leurs promoteurs. Or nous avons affaire à un mouvement profondément anti-libéral et passablement anti-scientifique – il suffit de lire les intellectuels qui nourrissent ce phénomène pour s’en convaincre. Rien n’est plus dangereux que des révolutionnaires qui s’imaginent pur de cœur.

- Plusieurs observateurs parlent d’une "religion civile". L’analogie au champ religieux vous semble-t-elle pertinente ?

- Elle est pertinente pour deux raisons: la première est que le wokisme fonctionne à la manière des cosmographies religieuses, c’est-à-dire qu’il procure une explication globale du fonctionnement de la société et de l’histoire, et offre à ses ouailles sens, ordre et direction. La seconde est que le comportement sectaire et les hyperboles moralisantes des activistes invitent naturellement une comparaison avec les mouvements religieux fondamentalistes. Pour preuve, le recours à des concepts infalsifiables et tout-puissants, comme le "patriarcat" ou le "racisme systémique".

- Comment comprendre que le langage du wokisme soit si présent au sein du monde protestant et de ses Églises?

- Il y a aussi beaucoup de résistance, mais je suppose qu’une partie du clergé entend profiter de la vitesse acquise de cette nouvelle religion civile, reproduisant des comportements analogues aux Églises, et capable de mobiliser certains segments de la population. Articulé autour de notions de justice sociale, d’équité, d’inclusivité, le militantisme woke peut assez aisément être réapproprié dans un contexte ecclésial. On peut aussi s’attendre à une demande par le bas, un certain nombre de membres motivés dans les communautés exigeant de leur hiérarchie un positionnement sur les grands thèmes du jour. La chose n’est pas très surprenante quand on pense, par exemple, à l’influence que le marxisme a pu exercer sur les théologiens de la libération en Amérique latine. Les Églises ne sont pas imperméables aux modes. 

- Vous pointez, au sein de ce phénomène, l’absence de "gardes-fous théologiques". Qu’entendez-vous par là?

- L’idée qu’un corpus théologique, qui s’est construit à travers des siècles d’affinage et de conciles, procure un cadre normatif à des notions de justice, de péché ou de rédemption. Libérées de ce cadre et réintroduites dans une religiosité révolutionnaire, ces idées prennent le mors aux dents. Le Royaume des Cieux se transforme en l’ambition d’établir ici-bas une société parfaitement égalitaire, quels qu’en soient les coûts.

- Vous êtes très critique à l’égard de ce mouvement. En quoi considérez-vous qu’il tende à glisser dans le fondamentalisme, voire le totalitarisme?

- La volonté de faire disparaître toutes les "inégalités", c’est-à-dire ici les disparités entre sexes ou entre populations, requiert nécessairement un État autoritaire régulant et corrigeant les effets des choix individuels. L’autoritarisme de la gauche progressiste n’est pas simplement la conséquence accidentelle d’une raideur idéologique propre au militantisme. Tout comme l’illustre l’histoire des économies planifiées, l’autoritarisme est l’inévitable propriété émergente du système.

- Votre étude souligne la contradiction de ce mouvement, dont les membres se proviennent majoritairement des classes les plus aisées…

- L’hypothèse que je trouve la plus séduisante a été formulée par le psychologue Rob Henderson: les classes supérieures nord-américaines signalent leur statut, c’est-à-dire se reconnaissent entre pairs et se distinguent du peuple, non plus seulement à l’aide de produits de luxe, mais aussi à l’aide d’idées luxueuses. Les coûts de ces idées sont assumés par les classes populaires tandis que les bénéfices à la fois matériels et immatériels sont capturés par les classes supérieures. Selon cette perspective, le wokisme est un outil dans un jeu de pouvoir et de statut. Son adoption signale son appartenance au camp du Bien et son institutionnalisation assure des débouchés professionnels à toute une classe de diplômés issus de filières académiques où le savoir tend à se dissiper au profit de l’activisme.

- N’allez-vous pas un peu loin en dénonçant une stratégie qui serait à nouveau profitable aux plus privilégiés, en faisant fi de leurs bonnes intentions?

-
Je ne pense pas que les activistes dont nous parlons ici soient des cyniques travaillant consciemment à consolider leur statut et je ne doute pas que leur mobilisation puise son énergie dans de bonnes intentions. Le problème réside dans la confusion entre les slogans et la réalité, d’une part, et dans la perception naïve que les bonnes intentions font de bonnes réformes, d’autre part. Or les réformes proposées par ces activistes (qui sont articulées sur toute une batterie de programmes préférentiels, de coûteuses formations, de régulations du langage) oscillent le plus souvent entre l’inutile et le contre-productif. 

Auteur: Moos Olivier

Info: Entretien avec Anne-Sylvie Sprenger à propos de *"The Great Awokening. Réveil militant, Justice Sociale et Religion", Religioscope, déc. 2020

[ cancel culture ] [ erreur catégorielle ] [ antispiritualisme ] [ bien maléfique ]

 

Commentaires: 0

Ajouté à la BD par miguel

spiritualité

La question qui s'impose est la suivante : sur quels arguments les promoteurs de cette technique [la méditation de la pleine conscience] se basent-ils pour établir un lien de filiation entre Vipassana – la Vision Pénétrante – et la Pleine Conscience ? Dans le Septième Pas de l'Octuple Sentier, l'Attention Juste (discipline de Dhyâna), et en particulier dans la contemplation du corps, des sentiments, de l'esprit et des phénomènes, il est régulièrement mentionné que le pratiquant doit être attentif, avec une conscience claire. Il développe, par cette pratique, certains "pouvoirs psychiques" : ouïe céleste, vision du cœur des autres êtres, mémoire des naissances précédentes, vision céleste supra-humaine et enfin, avec la cessation des passions, la délivrance de l'esprit par la sagesse. Ces indications comportementales relatives à la contemplation, en particulier pour ce qui concerne l'attention et la conscience claire, pourraient – exception faite des "pouvoirs psychiques" – sembler en adéquation avec la pratique de la Pleine Conscience, telle que définie par ses promoteurs. Cependant, ces derniers omettent un détail essentiel de la pratique de l'Attention juste : "Cette claire connaissance (de la nature des éléments contemplés) est présente en lui (le pratiquant) parce qu'il possède la compréhension et la vision profonde intérieure."

Que signifie "posséder la compréhension et la vision profonde intérieure" ? Ça signifie que la pratique de la contemplation dans l'Attention juste s'appuie sur la Prajna et non sur une intention qui, privée de la Compréhension juste (Premier Pas de l'Octuple Sentier) et de la vision profonde intérieure (Vision Pénétrante) préalables, est une activité du mental sous l'emprise de l'Ignorance, qui est le premier des douze liens interdépendants (qui génèrent le Samsara). Autrement dit, la méditation de la Pleine Conscience fonctionne en quelque sorte à l'envers, par rapport à l'Attention juste. En effet, pour la mindfulness, c'est l'attention intentionnelle qui est le préalable ou la cause ou encore le moteur, alors que pour le Bouddhisme, c'est exactement l'inverse : ce sont la compréhension et la vision profonde intérieure qui sont moteur de l'Attention juste. Et de fait, la pratique de l'attention intentionnelle – même "non jugeante" – ne peut en aucun cas aboutir à la compassion et à la sagesse telles qu'elles sont définies dans le Bouddhisme. En d'autres termes, il n'y a aucun lien de filiation justifié entre Vipassana et la méditation de la Pleine Conscience.

Par ailleurs, la notion de "présence" est étrangère au Bouddhisme. On retrouve ce concept dans les religions éternalistes, sans doute en lien avec les états de samadhi qui provoquent le sentiment d'une union avec le divin, lequel est non soumis au temps et donc éternellement présent. Si l'on devait préciser les choses, dans le Bouddhisme, on réalise plutôt – par l'éclairage de la Prajna – une Absence qu'une Présence, non pas dans le sens d'un néant, d'un "rien", mais dans le sens de l'Anatman – le Non soi – ou encore de la Vacuité non phénoménale (et donc ne résultant pas de l'interdépendance des phénomènes).

La méditation de la Pleine Conscience, privée de Prajna, est – du point de vue bouddhique – une pratique "aveugle", sans discernement. Le pratiquant n'observe pas le corps, les sentiments, l'esprit et les phénomènes avec l'œil de la Prajna – qui est l'œil du Bouddha qui possède la Vue juste, ou la Vision Pénétrante –, c'est-à-dire selon le mode de Prajna, mais avec les représentations mentales "souillées" (ou disons "orientées") par des apprentissages qui consistent à mettre spontanément des mots sur les choses, comme si celles-ci étaient enfermées dans des cases linguistiques ou sémantiques qui se substituent au réel et donc au "moment présent". Quand le pratiquant entend une cloche, il reconnaît la cloche ; il n'entend pas la cloche (comment sait-il qu'il s'agit d'une cloche ?). Et bien qu'il vide – ou plutôt tente de vider – la cloche de tout jugement, de toute émotion perturbatrice, de toute représentation... il n'en demeure pas moins vrai qu'il contemple un objet surnuméraire, sans pour autant reconnaître spontanément la véritable nature de cet objet, c'est-à-dire sa vacuité intrinsèque. Il peut bien sûr analyser secondairement cet objet comme étant constitué d'interdépendance d'autres objets ou phénomènes, il n'en demeure pas moins vrai que cette analyse n'est pas le fait de la Prajna mais de la pensée discursive, dualiste. Au sens strict, ce n'est pas une Vue (Vision Pénétrante).

Cette "présence attentive", cette "Pleine Conscience" n'est pas une qualité bouddhique. C'est vraisemblablement une forme de samadhi, qui se développe aussi bien dans les disciplines éternalistes (yoga) que dans les états hypnotiques de modification de conscience induits par la prière ou la récitation d'un mantra. Sans doute peut-on en tirer quelques bénéfices au plan de la santé physique ou mentale, mais ce n'est certainement pas l'expression de la Compassion bouddhique ou d'une Sagesse (la Compassion est une Sagesse, dans le Bouddhisme, et non un "état d'esprit"), telle qu'elle résulte de l'expérience de la Vacuité et de la Sapience (clarté/illumination). Il n'y a donc aucun argument sérieux qui puisse affirmer qu'il existe un lien de filiation entre la Vision Pénétrante, qui est l'activité de Prajna, et la "Pleine Conscience" qui n'a aucun équivalent dans le Bouddhisme.

Cependant, on ne peut blâmer les promoteurs de la Pleine Conscience d'être à l'origine de cet amalgame fâcheux, quand on constate que certains enseignants de tradition bouddhiste, généralement rattachés au Théravada mais aussi au Zen ou au Bouddhisme tibétain, en font également la promotion. Ces "maîtres" ont pour la plupart pignon sur rue, et, si l'on y regarde d'assez près, ce sont plutôt des laïcs, non spécifiquement rattachés au Bouddhisme (ils n'ont pas pris refuge), qui les apprécient. Ces enseignants n'hésitent pas à s'associer aux concepts new age. Et pour cause, ils n'ont en réalité aucune Vue ou Compréhension juste de ce qu'est la nature de l'esprit, du corps, des sensations et des phénomènes. Tout ce qu'ils savent, parce qu'ils ont bien appris la leçon, c'est que les phénomènes sont vides de nature propre parce qu'ils sont en interdépendance. Et quand un maître zen, dans l'émission "Sagesse Bouddhiste", affirme : "en zazen, nous réalisons que rien n'existe par soi-même, que tout est interdépendant", en présence de Christophe André, le psychiatre promoteur de la Pleine Conscience en France, également invité à l'émission sus-nommée, on atteint véritablement le pompon.

Dans un échange sur les réseaux sociaux, une personne me demande : "pourquoi faire zazen quand on a eu kenshô ?" La question est légitime, car dans l'esprit de cette personne, on pratique zazen pour obtenir kenshô comme on pratique l'attention intentionnelle pour obtenir la Pleine Conscience. Et à la façon dont l'exprime le maître zen à l'émission Sagesse Bouddhiste, il y a lieu de penser en effet qu'on pratique zazen pour réaliser la vacuité phénoménale (l'interdépendance phénoménale). Et dans l'esprit de cette personne sur les réseaux sociaux, quand on a réalisé ce qu'il y a à réaliser, le but est atteint et n'a donc plus à être recherché (il faut se souvenir que l'intention suppose le but, par définition). Mais, ainsi que je l'exprime plus haut à propos de Vipassana, c'est comprendre zazen à l'envers, si j'ose dire. Il n'y a pas d'attention intentionnelle. Il y a juste activité de la Prajna.

Un bon enseignant du Zen devrait commencer par dire à son élève qu'il n'y a pas dans le Zen (ou dans le Bouddhisme en général) de but à atteindre qui ne soit déjà atteint. Zazen ne consistera donc pas à pratiquer pour devenir un bouddha ou pour atteindre des états de conscience spécifiques, qu'ils soient transcendants ou qu'ils reflètent l'ennui, l'errance, ou encore des sensations de bien être ou – plus rarement – orgasmiques. Zazen ne consiste pas à être autre chose que soi-même, non pas selon le mode de la pensée dualiste, c'est-à-dire selon le mode des représentations psychologiques, culturelles ou sociétales, mais selon le mode de Prajna. 

Pour conclure, je dirai que dans la méditation de la Pleine Conscience, c'est l'activité du mental qui prévaut et Prajna est passive, alors que dans la pratique de zazen, c'est l'activité de Prajna qui est active, quels que soient par ailleurs les états de conscience, car ceux-ci ne reflètent jamais que des phénomènes transitoires, vide de nature propre et, ultimement (si l'on s'y attache), facteur de souffrance. Dans le Zen, on appelle "makyo" ces états de conscience, et n'ont strictement rien à voir avec kenshô. 

Cela étant, qu'on ne s'y méprenne pas : l'activité de Prajna n'est pas spontanée dans la conscience. Elle s'éveille à condition d'atteindre la coïncidence de l'esprit observé (objet) et l'esprit observant (sujet). Dans cette coïncidence, la dualité sujet/objet disparaît. C'est l'Absence (et non la Présence). C'est l'Anatman – le Non-soi – et non le Soi. Ne vous y trompez pas.

Auteur: Dumè Antoni

Info: https://voirsavraienature.blogspot.com/2020/05/activite-du-mental-et-activite-de-la.html?

[ adaptation moderne ] [ confusions ] [ différences ] [ enseignements traditionnels ] [ grand véhicule ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie

AP : Il y a une métaphore qui revient de manière récurrente dans votre ouvrage, qui est celle de l’ampoule et de la lumière. Cette métaphore rappelle vraiment celle de Bergson que je me permets de citer : "Un vêtement est solidaire du clou auquel il est accroché ; il tombe si l’on arrache le clou ; il oscille si le clou remue ; il se troue, il se déchire si la tête du clou est trop pointue ; il ne s’ensuit pas que chaque détail du clou corresponde à un détail du vêtement, ni que le clou soit l’équivalent du vêtement ; encore moins s’ensuit-il que le clou et le vêtement soient la même chose. Ainsi la conscience est incontestablement accrochée à un cerveau mais il ne résulte nullement de là que le cerveau dessine tout le détail de la conscience, ni que la conscience soit une fonction du cerveau."*

ER : Oui, je pense que j’ai cité exactement ceci dans mon livre, ou alors, en réduisant le livre, il est possible que cette référence à Bergson ait sauté. Plusieurs métaphores sont envisageables, mais le cœur du problème est celui du cerveau conscient. Les neuroscientifiques posent (je crois) mal le problème, aussi bien du côté des athées que des spiritualistes puisque, pour faire simple, on est dans la seule alternative suivante. Soit la conscience cérébrale est matérielle et immanente : c’est le point de vue matérialiste. Soit la conscience est un phénomène transcendant et immatériel : c’est le point de vue spiritualiste. Je suis intermédiaire entre les deux. En effet, je prends d’un côté l’immanence (qui implique la possibilité d’une approche scientifique du fait mental), et de l’autre je prends le côté immatériel. J’appelais d’ailleurs à un moment ma théorie "im-im", "immatériel-immanent". Je fais de la conscience un phénomène à la fois immatériel – en un sens précis que j’indiquerai – mais néanmoins immanent. Je ne fais appel à aucune instance surnaturelle pour la conscience. Mon hypothèse "im-im" me place en position intermédiaire entre les deux extrêmes du matérialisme et du spiritualisme.

Sur le fond, l’histoire de la lampe est avant tout une manière de dénoncer certaines "bêtises" que l’on entend dans les neurosciences. Par exemple, on entend souvent que la conscience est le cerveau en marche, qu’elle est au sens de l’identité le cerveau. Changeux dit des choses de ce genre-là, et il n’est pas le seul. Je dis que c’est aussi stupide que si l’on disait que la lumière est la lampe qui la crée. Certes, je pourrais m’exprimer plus diplomatiquement…

AP : Vous développez donc le même argument que Bergson.

ER : Absolument ; mais jusqu’à un certain point seulement. C’est le même argument, à ceci près que la lampe me permet d’aller un peu plus loin. Voyons cela. La matière de la lampe n’est pas différente de la matière qu’on trouve ailleurs. Son secret ne réside pas dans une matière particulière qui serait la sienne, et qui expliquerait sa capacité à émettre de la lumière. Cette capacité est vient au contraire du fait que la lampe réalise les conditions d’émission d’actualisation d’un potentiel inhérent à toute matière, celui d’émettre de la lumière. Je comprends de même que le cerveau conscient est une structure qui réalise les conditions d’émission ou d’actualisation d’une potentialité qui (dans mon hypothèse) est latente dans la matière normale. Latente et universelle. Cette potentialité est celle de l’apparition de la conscience ou, plus généralement, du psychisme (qui englobe l’inconscient et le pré-conscient). Donc, ma métaphore suggère une certaine façon de comprendre le mystère du cerveau conscient.

AP : Oui, mais au risque d’insister sur cette métaphore, je dois dire que je ne l’ai jamais comprise, elle m’a toujours paru fonctionner à vide.

ER : Elle revient à dire qu’une corrélation n’est pas une identité.

AP : Cela, je le comprends très bien. Mais ce que je ne comprends pas, c’est la pertinence de la métaphore : Bergson et vous-même voulez montrer qu’il y a deux ordres de réalité différents : un ordre matériel et un ordre de l’esprit, sachant que l’ordre matériel donne naissance à l’ordre de l’esprit sans que ce dernier ne soit identique à l’ordre matériel. Cela, je le comprends fort bien. Chez vous, l’ampoule donne naissance à la possibilité énergétique de la lumière, mais l’ampoule n’est pas la lumière. Mais ce qui ne me convainc pas, c’est le fait que le clou et le marteau, ou l’ampoule et la lumière, appartiennent au même domaine de réalité : ils sont tous absolument matériels, si bien que cette métaphore me semble inapte à maintenir une différence quant aux ordres de réalité : la métaphore ne fonctionne que parce qu’on abolit dans les objets retenus ce qui justement pose problème, à savoir les différents ordres de réalité.

ER : Non, cette métaphore n’implique rien, dans mon esprit en tout cas, quant à l’identié – ou au contraire l’hétérogénéité – entre les ordres de réalité. D’ailleurs, je crois qu’ils dépendent en partie de nos catégories mentales, qui comportent de l’arbitraire. Si par exemple vous décrétez que la matière est la seule matière pesante, alors la lumière, qui n’est pas pesante, n’est donc pas matérielle en ce sens-là. Tout cela est arbitraire, c’est une question de définition. Vous pouvez à présent dire que la lumière est qualitativement différente de la matière, et vous avez donc une structure matérielle capable d’engendrer quelque chose de différent. Mais j’en profite pour rappeler qu’une métaphore n’est jamais exacte à 100 %. La carte, métaphore graphique du territoire, n’est pas le territoire. C’est juste une voie d’accès, une approximation de la vérité, qui permet à certains d’accéder à l’essentiel d’un message. Sans entrer dans ses détails plus ou moins subtils.

AP : Oui, je suis d’accord, mais il n’en demeure pas moins que la validité de la métaphore repose tout entière sur une pétition de principe : on prend pour acquis ce qui est très problématique, on évacue le problème, que ce soit chez Bergson ou chez vous puisqu’on crée une métaphore qui évite de penser ce problème : comment deux ordres de réalité différents peuvent être corrélés ? Le problème de Bergson est précisément de penser à la fois la solidarité de deux éléments et leur différence ontologique : mais au lieu de cela, il pose d’emblée une communauté ontologique (le clou et le manteau), et je crains que la métaphore que vous prenez pour illustrer la même idée fonctionne de la même manière ; je vous cite (p 52) : "Le cerveau sera alors conçu comme une machine à produire de la conscience, sans que cela implique la nature matérielle de cette dernière. Exactement à la manière dont une lampe, faite de matière solide et pesante, est néanmoins capable de produire de la lumière, qui est énergie pure et sans masse." On a le même problème : l’ampoule et la lumière ne sont pas strictement identiques, bien sûr, mais dans les deux cas on est dans ordre matériel, l’énergie pure est quantifiable, elle est objectivable, elle est matérielle, tout comme l’est l’ampoule. Par conséquent, on ne se demande plus comment ce qui est de deux ordres de réalité différents peut entrer en contact ou peut être corrélé, on prend au contraire la possibilité du contact comme acquise, parce qu’on écrase en fait la différence ontologique des deux éléments, alors même qu’elle devrait poser problème. Le clou et le manteau sont en contact parce qu’ils appartiennent tous les deux à la matière ; or, si la conscience est immatérielle, et le cerveau matériel, la question du contact se pose de manière très différente que dans le cas du clou et du manteau ou de l’ampoule et de la lumière.

ER : Cette métaphore est simplement une réaction par rapport à ceux qui identifient purement et simplement conscience et cerveau ; alors je leur dis que c’est comme si vous disiez que la lampe et la lumière sont la même chose. Or une telle identification est stupide, on le sait instinctivement.

AP : Oui, tout cela je le comprends ; mais je considère juste que cette métaphore n’est pas valide, précisément en raison de l’oubli de la différenciation ontologique des éléments qu’elle utilise (la lumière et l’ampoule ne sont pas ontologiquement différentes), alors même qu’elle est censée prouver la non-identité des deux termes, leur différence ontologique (la conscience est immatérielle, le cerveau est matériel). Bref, je ne vois pas bien en quoi ça réfute réellement la thèse matérialiste puisque la métaphore est obligée pour fonctionner, c’est-à-dire pour penser la corrélation, de prendre deux éléments qui appartiennent nécessairement au même ordre de réalité. Et le matérialisme ne dit rien d’autre.

ER : Ecoutez, je me permettrai modestement de dire que ça ne vaut pas la peine qu’on en fasse une telle histoire. Je rapelle deux choses cependant. D’une part, ma métaphore, contrairement je crois à celle de Bergson, invite à comprendre le cerveau (ou la "lampe à conscience") comme un outil de production d’autre chose – la conscience – SANS préjuger de l’identité ontologique, ou non, entre les deux. D’autre part, je suis un peu perplexe sur ce que vous dites sur la possibilité du contact entre matière (cérébrale, ou autre) et la conscience. Car ce contact est au coeur de mon livre, dont le but premier est précisément de proposer une solution à cette énigme. Ce n’est rien de moins que son sujet central ! Je crois pouvoir la résoudre, en m’appuyant sur la physique quantique (dépouillée des confusions et contresens qui l’entourent) et la notion de psychomatière. Tout mon livre est là… et je suppose que cela ne vous a pas échappé. En fait, je commence à douter : ai-je été suffisamment clair pour le lecteur ?

Auteur: Ransford Emmanuel

Info: Sur actu-philosophia, interview de Thibaut Gress, 7.1 2010 à propos de son livre "Les racines physiques de l’esprit ". *Henri Bergson, L’énergie spirituelle, Edition du centenaire, PUF, 1959, p. 842

[ dualité prison ] [ rationalisme impuissant ] [ limitation sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

littérature

Les 19 lois du bon polar, selon Borges.

Le grand écrivain argentin s'était amusé à codifier la narration policière. En partenariat avec le magazine BoOks.

Dans son article "Lois de la narration policière" (1), de 1933, Jorge Luis Borges propose quelques règles élémentaires, ou "commandements", pour le récit policier classique. Ces conventions, comme il le remarque avec esprit, "ne visent pas à éluder les difficultés, mais plutôt à les imposer". Borges énonce explicitement les six règles suivantes:

1 : Une limite facultative de ses personnages

Les personnages doivent être peu nombreux et bien définis, de façon que lecteur puisse les connaître et les distinguer. "La téméraire infraction à cette loi est responsable de la confusion et de l'ennui fastidieux de tous les films policiers."

2 : Exposition de toutes les données du problème

On doit mettre toutes les cartes sur la table, sans as sortis de la manche à la dernière minute. À partir d'un certain point, le lecteur devra disposer de toutes les pistes nécessaires pour trouver lui-même la solution. "L'infraction répétée de cette deuxième loi est le défaut préféré de Conan Doyle. Il s'agit parfois de quelques imperceptibles particules de cendre, ramassées dans le dos du lecteur par ce privilégié d'Holmes. Parfois l'escamotage est plus grave. Il s'agit du coupable, terriblement démasqué au dernier moment, qui s'avère être un inconnu : une insipide et maladroite interpolation."

3 : Avare économie de moyens

Qu'un personnage se dédouble, on peut l'admettre, dit Borges. Mais que deux individus en contrefassent un troisième pour lui conférer un don d'ubiquité "court le risque incontestable de paraître une surcharge". La solution doit être la plus claire et nette possible, sans lourdeurs techniques, artifices improbables ou déploiements accablants de mouvements et de détails. La solution doit aussi pouvoir se déduire des ressources déjà mises en jeu, comme réorganisation des éléments connus.

4 : Primauté du comment sur le qui

Le véritable mystère d'un bon whodunit(2) n'est pas le nom de celui qui a commis le crime, mais ce que sera le nouvel ordre logique, plus subtil, la vérité souterraine qui éclaire le récit d'un nouveau jour.

5 : Pudeur de la mort

À la différence des thrillers du cinéma contemporain, où l'imagination cherche à concevoir des crimes de plus en plus sanglants et des cadavres de plus en plus choquants, dans le récit policier classique, la mort est comme une ouverture au jeu d'échecs et n'a pas en soi beaucoup d'importance. "Les pompes de la mort n'ont pas leur place dans la narration policière dont les muses glaciales sont l'hygiène, l'imposture et l'ordre", écrit Borges.

On trouve une transgression exemplaire de cette loi dans "le Noël d'Hercule Poirot"(3), d'Agatha Christie. Ce roman, comme on le comprend dans la dédicace, est conçu comme un défi, son beau-frère lui ayant reproché d'éviter le sang dans ses crimes. "Vous y déploriez que mes meurtres deviennent trop épurés - exsangues, pour parler net. Vous y réclamiez un de ces bons vieux meurtres bien saignants. Un meurtre qui, sans l'ombre d'un doute, en soit bien un." Le plus remarquable est peut-être que, dans ce crime esthétiquement opposé aux précédents, Agatha Christie reste elle-même: le cri terrifiant, la scène brutale du meurtre, le sang abondamment répandu sont des clés de l'élucidation finale.

6 : Nécessité et merveilleux dans la solution

"La première implique que le problème soit un problème précis susceptible d'une seule réponse, l'autre requiert que cette réponse puisse émerveiller le lecteur." Cette sensation de merveilleux, précise Borges, ne doit pas faire appel au surnaturel. La solution d'une énigme policière doit être comme la démonstration d'un théorème complexe: difficile à imaginer à partir des prémisses, mais dont la nécessité s'impose par la rigueur d'une explication parfaitement logique. En plus de ces six axiomes déclarés, Borges en postule indirectement certains autres dans son article: Le véritable récit policier repousse - ai-je besoin de le préciser - avec le même dédain les risques physiques et la justice distributive. Il fait abstraction, avec sérénité, des cachots, des escaliers secrets, des remords, de la voltige, des barbes postiches, de l'escrime, des chauves-souris, de Charles Baudelaire et même du hasard. Il découle de ce passage trois règles supplémentaires :

7 : Dédain des risques physiques

Dans ce dédain des risques physiques réside l'une des principales différences avec le roman noir ou le thriller cinématographique. Borges observe que, dans les premiers exemples du genre, "l'histoire se limite à la discussion et à la résolution abstraite d'un crime, parfois à cent lieues de l'événement ou bien éloignée dans le temps". Isidro Parodi, le détective qu'il imagina avec Bioy Casares, résout les énigmes alors qu'il est enfermé dans une prison. Dans les aventures de Sherlock Holmes comme dans celles d'Hercule Poirot, la vie du détective est parfois en danger imminent, mais ces risques sont éphémères et ne constituent jamais la matière narrative principale, sauf peut-être dans leurs dernières enquêtes. C. Auguste Dupin, la vieille Miss Marple, le père Brown et Perry Mason(4) sont tous des exemples de détectives à l'abri des risques physiques.

8 : Renoncement aux considérations ou jugements moraux

Sur la question de la "justice distributive", "la Huella del crimen" de Raúl Waleis, premier roman policier argentin (il date de 1877 et a été récemment réédité - (5)), avait l'intention déclarée de favoriser une nouvelle législation, à travers l'exposé d'une affaire mettant en évidence une faille dans la justice: "Le droit est la source où je puiserai mes arguments. Les mauvaises lois doivent être dénoncées pour les effets que produit leur application. Je crée le drame auquel j'applique la loi en vigueur. Ses conséquences fatales prouveront la nécessité de la réformer. " Les enquêtes de Perry Mason et les récits de Chesterton témoignaient peut-être d'un certain attachement aux canons de la justice et aux considérations morales sur les innocents et les coupables.

9 : Rejet du hasard

À cet égard, citons les intéressantes réflexions de Patricia Highsmith, qui ne craint pas de mettre à l'épreuve la crédulité du lecteur: " J'aime beaucoup qu'il y ait dans l'intrigue des coïncidences et des situations presque (mais pas entièrement) incroyables comme par exemple le plan audacieux qu'un homme propose à un autre qu'il connaît depuis deux heures à peine dans "L'Inconnu du Nord-Express". [...] L'idéal est que les événements prennent une tournure inattendue, en gardant une certaine consonance avec le caractère des personnages. La crédulité du lecteur, son sens de la logique - qui est très élastique -, peut être étirée au maximum, mais il ne faut pas la rompre " ("L'Art du suspense" (6), chap. 5). Le hasard peut survenir dans la narration comme ellipse, tout comme, dans les comédies, on accepte qu'une porte s'ouvre pour laisser sortir un personnage et qu'un autre apparaisse aussitôt. Ou comme le catalyseur d'une circonstance propice à l'accomplissement d'un crime quand le mobile n'est pas très affirmé. C'est ce qui arrive, par exemple, avec l'apparition d'un parent éloigné, dans "Paiement différé" (7) de Cecil Scott Forester. En revanche, le hasard ne devrait pas jouer un rôle décisif dans l'explication finale. À noter que, dans la nouvelle de Borges "la Mort et la Boussole", c'est un accident fortuit, une mort inattendue, qui donne à l'assassin l'idée de la série de meurtres qu'il va commettre. D'autres règles peuvent encore être tirées de l'article de Borges :

10 : Méfiance ou rejet des procédures de l'investigation policière

"Les démarches quotidiennes des investigations policières - empreintes digitales, torture et délation - sembleraient ici des solécismes." L'enquête policière appartient à l'ordre prosaïque des faits et du bon sens. C'est ce qui établit la différence entre le plan de l'enquête officielle de la justice et l'enquête parallèle, de l'ordre de la fiction - à l'écart des critères et des paramètres usuels -, que mène le détective. Dans "la Mort et la Boussole", ironiquement, le policier et le détective ont tous deux raison, mais chacun à sa manière.

11 : L'assassin doit appartenir à la distribution initiale des personnages

"Dans les récits honnêtes, écrit Borges, le criminel est l'une des personnes qui figurent dès le début."

12 : La solution doit éviter le recours au surnaturel, qui ne peut être invoqué que comme une conjecture transitoire à écarter

La réponse doit émerveiller le lecteur "sans faire appel bien sûr au surnaturel, dont l'usage dans ce genre de fiction est un alanguissement et une félonie. Chesterton réalise toujours le tour de force de proposer une explication surnaturelle et de la remplacer ensuite, sans perdre au change, par une autre, toute naturelle."

13 : La solution ne peut comporter des éléments inconnus du lecteur

"Sont également prohibés [...] les élixirs d'origine inconnue." Voici donc les règles énoncées par Borges dans son article. Nous pourrions en rajouter quelques autres :

14 : Omission de la vie privée du détective et de ses aventures sentimentales ou sexuelles

Règle enfreinte dans tous les films policiers, où immanquablement l'enquêteur divorce, mène une existence malheureuse et a une liaison avec l'actrice principale.

15 : Dans le cas d'un double ou triple dénouement, il doit y avoir une progression, chaque fin surpassant la précédente en ingéniosité et en rigueur

Comme dans la règle des trois adjectifs que mentionne Proust à propos des salons de la bonne société française, le troisième est tenu de surpasser les deux premiers.

16 : Le meurtrier ne peut être le majordome (à moins d'être dans un congrès de majordomes)

L'assassin ne peut être un personnage trop secondaire, maintenu en permanence caché, comme une carte que l'on garde pour la fin.

17 : L'assassin ne peut être l'immigré ou le fanatique religieux ou le suspect d'extrémisme politique

Règle toujours soigneusement respectée par Agatha Christie. Les mobiles du meurtre doivent être intimes et le meurtrier doit appartenir au noyau dur de l'histoire. Cette règle est négligée de manière particulièrement décevante dans "Meurtriers sans visage", de Henning Mankell.

18 : L'assassin ne doit pas être le narrateur

Règle admirablement transgressée par Agatha Christie dans "le Meurtre de Roger Ackroyd" et, de manière plus prévisible, par Tchekhov dans "la Confession".

19 : L'assassin ne doit pas être l'enquêteur

Règle non respectée par Agatha Christie dans "le Noël d'Hercule Poirot" et par Juan José Saer dans "l'Enquête". Pourrait-on encore allonger cette liste ? Assurément. Mais cela créerait peut-être une fausse illusion, l'illusion que le genre peut être circonscrit et réduit à un formalisme d'axiomes, à une liste de règles et de procédés. Une illusion symétrique et tout aussi erronée - bien que prisée dans les tables rondes, car elle permet la pose iconoclaste et les métaphores guerrières - veut que le genre doit être dynamité, qu'il faut faire voler en éclats toutes les règles, que les lois sont faites pour être violées. Quiconque s'y est essayé sait en tout cas qu'il est difficile, sinon impossible, de se défaire de toutes à la fois, et qu'il y a dans le genre policier une tension extraordinaire entre ce qui a déjà été dit, entre la rhétorique accumulée dans des milliers de romans, et ce qui reste encore à dire, à la limite des règles. Les lois sont, en ce sens, comme une barrière que l'astuce et la créativité doivent franchir. Dans une des très rares occasions où Borges conçoit un projet de roman (dans l'article "è vero, ma non troppo", paru en 1938 dans la revue "El Hogar") ce n'est pas un hasard s'il choisit, entre tous les genres littéraires, le roman policier. Le sien serait, dit-il, "un peu hétérodoxe". Et il souligne que c'est là un point important, car "le genre policier, comme tous les genres, vit de l'incessante et délicate infraction à ses lois". Oui, la délicate infraction à ses lois.

Auteur: Martinez Guillermo

Info: Texte paru dans le quotidien argentin La Nación, le 15 août 2009, traduit de l'espagnol par François Gaudry

[ recettes ] [ écriture ]

 

Commentaires: 0

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

philosophie

Tout le monde a une théorie sur ce qui se passe dans notre monde. Mais beaucoup sont partielles, ou fragmentaires, ou trop simples – attribuant trop d'importance au "capitalisme", au "mondialisme", à "l'opportunisme" ou aux "conséquences imprévues". Nous devons continuer à essayer de donner un sens à l'ensemble du scénario.

Commençons par quelques grandes hypothèses sur ce qui se passe. L'hypothèse de René Guénon, esquissée pour la première fois vers 1930, était que toutes les civilisations possèdent des pouvoirs spirituels et temporels et incorporent donc en quelque sorte une tension entre les deux : mais que, pour la première fois dans l'histoire, notre modernité, à partir de  1500, a placé le temporel au-dessus de l'Eternel, le matériel au-dessus du spirituel : en bref, 'l'état' au-dessus de 'l'église'.  On a vu quelques hypothèses connexes proposées en même temps : comme celle de Julien Benda selon laquelle les clercs, ou intellectuels, avaient déplacé leur préoccupation : ainsi l'immense valeur qu'ils avaient toujours attribuée aux choses non mondaines était maintenant attribuée aux choses mondaines. C'est-à-dire que les intellectuels étaient maintenant corrompus, en quelque sorte suivistes de profits sales.

Un ami américain a récemment attiré mon attention sur certains des écrits récents d'un romancier et essayiste, Paul Kingsnorth . A l'origine anticapitaliste, il se croyait à gauche, et se retrouve aujourd'hui plus ou moins à droite. Son hypothèse est que le déclin du christianisme dans notre civilisation – déclin de l'éternel et du spirituel – coïncide et a probablement été causé par la montée de ce qu'il nomme "mythe du progrès". Le progrès, c'est la conviction que le monde, ce monde, va mieux. Ce mythe est le genre de chose que nous pouvons associer à Francis Bacon ou John Stuart Mill, ou encore Bayle, Mandeville, Voltaire, Smith, Hegel, Comte, Marx - plus ou moins tout le monde des XVIIe au XIXe siècles, sauf pour des gens un peu plus pointus comme Bossuet ou Maistre, aussi pour Burke à la toute fin de sa vie. Kingsnorth construit une vision très efficace de l'histoire sur cette hypothèse, ce qui lui permet d'expliquer pourquoi gauchistes et corporatistes s'accordent si bien aujourd'hui. Tous, dit-il, veulent du progrès. Ils contribuent tous à ce qu'il appelle la Machine.

Acceptons ces deux hypothèses. Mais je dois en ajouter un troisième, qui ajoute une complication interne à la deuxième, et rend ainsi l'ensemble du scénario un peu plus dynamique. Cela peut même expliquer pourquoi il y a tant de confusion sur ce qui s'est passé. L'hypothèse est qu'il n'y a jamais eu un seul "mythe du progrès" : la puissance du mythe du progrès était qu'il contenait un contradiction interne, comme les traducteurs de Hegel ont eu l'habitude de la nommer : une division intérieure.  Deux positions rivales en désaccord sur le comment alors même qu'elles étaient d'accord sur le quoi . Le quoi étant un présupposé absolu - quelque chose de si fondamental qu'il n'a jamais été remis en question par aucune des parties. Comme c'est toujours le cas, le désaccord au premier plan détournait l'attention de l'accord plus profond qui dominait tout à l'arrière-plan.

Ce sur quoi ils étaient d'accord, c'est que des progrès se produisaient et devaient se produire . Ce sur quoi ils n'étaient pas d'accord, c'était comment cela devait se passer. Je simplifie bien sûr ici, mais simplifier un argument en deux positions est bien moins simple que de le simplifier en une position.

D'un côté il y avait l'argument selon lequel des progrès étaient en cours, que cela nous plaise ou non. Cela se produisait à travers ce qu'Adam Smith appelait la main invisible, ou ce que Samuel Johnson appelait la concaténation secrète, ce que nous appelons parfois maintenant la loi des conséquences imprévues. C'est le processus par lequel de nombreux humains, à la poursuite de leurs propres intérêts individuels, ont contribué à l'émergence d'un bien qu'aucun n'avait jamais voulu, et qu'aucun n'avait anticipé, mais qui pouvait être compris rétrospectivement.

De l'autre côté, il y avait l'argument selon lequel le progrès ne se produirait que si nous adoptions les bonnes croyances rationnelles, les bonnes vues éclairées ( iberté, égalité, fraternité, etc.), et si nous nous efforcions d'imposer au monde les politiques ou les schémas suggéré par les bonnes croyances rationnelles et les bonnes vues éclairées. Il s'agissait de mettre l'accent sur la planification plutôt que sur les conséquences imprévues : et la planification ne pouvait être efficace que si elle était effectuée par ceux au pouvoir. Ainsi, les puissants devaient être subjugués par les experts de l'illumination.

La différence entre ces deux positions est que l'une y voit un processus inconscient , l'autre y voit une impulsion consciente. Ces deux positions ont dominé le débat politique deux siècles durant : d'une part, les uns ont privilégié les marchés et l'activité privée indépendante et apparemment (mais pas réellement ou finalement) égoïste, et d'autre part, un caméralisme, un colbertisme ou un comtisme de la planification scientifique. et l'activité publique collective.

En pratique, bien sûr, les deux ont été mélangées, ont reçu des noms variés, et certaines personnes qui ont commencé d'un côté pour se retrouver de l'autre : pensez à la dérive de John Stuart Mill ou de TH Green du libéralisme au socialisme ; mais considérez également la dérive de Kingsley Amis, Paul Johnson et John Osborne dans l'autre sens. Décoller tout cela est un boulôt de dingue : il faut peut-être le laisser aux historiens qui ont la patience de le faire. Mais les historiens ont tendance à embrouiller les choses... Alors tout ça mérite quelques explications : et l'expliquer dans l'abstrait, comme je le fais ici, permet certainement d'expliquer pourquoi les libéraux ont parfois été d'un côté ou de l'autre, et pourquoi les conservateurs sont tout aussi chimériques. 

Le point de cette hypothèse est de dire que toute la politique des deux derniers siècles fut dominée par des arguments sur la question de savoir si le progrès aurait lieu dans l'observance ou dans la violation, pour ainsi dire : s'il devrait être théorisé consciemment et ensuite imposée par une politique prudente, ou si il devait survenir sans planification délibérée de telle manière que seuls les historiens ultérieurs pourraient le comprendre pleinement. Mais tout ça est terminé. Nous sommes maintenant à l'étape suivante.

Cela s'explique en partie par le fait que, comme le dit Kingsnorth, le mythe du progrès - bien qu'il ne soit pas entièrement mort - parait pratiquer ses derniers rites. Il est sans doute en difficulté depuis les années 1890, a été secoué par la Première Guerre mondiale ; mais il a subi ses chocs récents depuis les années 1970, avec la pollution, la surpopulation, la stagflation, l'ozone, le dioxyde de carbone, les prêts hypothécaires à risque, etc. Pour l'instant les mondialistes ne savent pas exactement comment concilier le cercle du désir de "progrès" (ou, du moins comment être "progressiste") tout en faisant simultanément promotion de la "durabilité". Si nous avons un mythe en ce moment c'est sûrement le mythe de la durabilité. Peut-être que les mondialistes et les localistes comme Kingsnorth constateront que, bien qu'ils soient en désaccord sur beaucoup de choses - COVID-19, par exemple - ils sont d'accord sur la durabilité.

Mais il y a quelque chose à ajouter, une quatrième hypothèse, et c'est vraiment l'hypothèse suprême. J'ai dit que pendant quelques siècles, il y avait la planification contre le laissez-faire , ou la conscience contre les conséquences imprévues - les deux essayant de trouver comment rendre le monde, ce monde, meilleur. Mais il y a autre chose. La quatrième hypothèse est que certains personnages du début du XIXe siècle entrevoyaient que les deux positions pouvaient se confondre. Hegel était l'une de ces figures ; même Marx. Il y en eut d'autres; qui sont nombreux maintenant. Fusion qui signifiait quelque chose comme ce qui suit :

Jusqu'à présent, nous avons fait l'erreur de penser que le bien peut être imposé consciemment - généralement par le biais de préceptes religieux - mais nous avons découvert, grâce à Mandeville, Smith et les économistes, que le bien peut être obtenu par des conséquences involontaires. Ce qui ne signifie cependant pas que nous devrions adopter une politique de laissez-faire : au contraire, maintenant que nous comprenons les conséquences imprévues , nous savons comment fonctionne tout le système inconscient du monde, et puisque nous savons comment intégrer notre connaissance de ceci dans notre politique, nous pouvons enfin parvenir à un ordre mondial scientifique et moral ou probant et justifié parfait.

Est-ce clair? Les Lumières écossaises ont créé l'expert empirique, qui a fusionné avec le progressiste conscient moralement assuré, pour devenir l'espoir du monde. Sans doute, la plupart d'entre nous ont abandonné les fantasmes hégéliens et marxistes de "fin de l'histoire" ou d'"émancipation", mais je pense que l'ombre de ces fantasmes a survécu et s'est achevée dans le récent majoritarisme scientifique et moral, si clairement vu depuis que le COVID-19 est arrivé dans le monde.

Si j'ai raison à propos de cette quatrième hypothèse, cela explique pourquoi nous sommes si confus. Nous ne pouvons pas donner un sens à notre situation en utilisant le vieux langage du "collectivisme" contre "l'individualisme". Le fait est qu'à notre époque post-progressiste, les experts se sentent plus justifiés que jamais pour imposer à chacun un ensemble de protocoles et de préceptes "fondés sur des preuves" et "moralement justifiés". Plus justifiés parce que combinant la connaissance de la façon dont les choses fonctionnent individuellement (par la modélisation et l'observation de processus inconscients ou de conséquences imprévues) avec la certitude sur ce qu'il est juste de faire collectivement (étant donné que les vieux fantasmes de progrès ont été modifiés par une idéologie puritaine et contraignante de durabilité et de survie, ajoutée de diversité, d'équité et d'inclusion - qui sert d'ailleurs plus d'impulsion de retenue que d'anticipation d'une émancipation du marxisme)

Ce n'est pas seulement toxique mais emmêlé. Les niveaux d'hypocrisie et d'auto-tromperie impliqués dans cela sont formidables. Les mondialistes ont une doctrine à toute épreuve dans leur politique durable qui sauve le monde, ou "durabilité". Elle est presque inattaquable, puisqu'elle s'appuie sur les plus grandes réalisations des sciences naturelles et morales. Tout ça bien sûr alimenté par une ancienne cupidité acquisitive, mais aussi par le sentiment qu'il faut offrir quelque chose en échange de leur manque de privilèges à ceux qui ont besoin d'être nivelés ; et tout ça bien sûr rend le monde meilleur, "sauve" la planète, dorant les cages des déshérités et les palais des privilégiés de la même laque d'or insensée.

Peut-être, comme l'entrevoient Guenon et Kingsnorth – également Delingpole et Hitchens – la vérité est-elle que nous devons réellement remonter à travers toute l'ère de la durabilité et l'ère du progrès jusqu'à l'ère de la foi. Certes, quelqu'un ou quelque chose doit forcer ces "élites" à se soumettre à une vision supérieure : et je pense que la seule façon de donner un sens à cela pour le moment est d'imaginer qu'une église ou un prophète ou un penseur visionnaire puisse abattre leur État - la laïcité corporate-, leur montrer que leur foi n'est qu'une idéologie servant leurs intérêts, et qu'ils doivent se soumettre à une doctrine authentiquement fondée sur la grâce,  apte à admettre la faute, l'erreur, voire le péché. Cela ne se ferait pas par des excuses publiques ou une démonstration politique hypocrite, mais en interrogeant leurs propres âmes.

Je suis pas certain que c'est ce qui arrivera, ni même que cela devrait arriver (ou que cela pourrait arriver) : mais c'est certainement le genre de chose qui doit arriver. Autrement dit, c'est le genre de chose que nous devrions imaginer arriver. Ce qui se passera sera soit du genre Oie Blanche ancienne, soit peut-être un événement inattendu style "Black Swan" (pas nécessairement une bonne chose : nous semblons trop aimer la crise en ce moment). Mais, de toute façon, une sensibilité réactionnaire semble être la seule capable de manifester une quelconque conscience de ce qui se passe.

Pour clarifier, permettez-moi d'énoncer à nouveau les quatre hypothèses sur ce phénomène :

1. A travers toutes les époques, il y a eu un équilibre entre spiritualité et  sécularisation. Dans notre modernité, la sécularité est dominante. Il n'y a que ce monde.

2. Depuis environ trois siècles, nous croyons que ce monde s'améliore et devrait s'améliorer. C'est le "mythe du progrès".

3. Il y a toujours eu des désaccords sur le progrès : certains pensaient qu'il était le fruit du hasard et de l'intérêt individuel ; d'autres pensaient qu'il ne pouvait être que le résultat d'une conception délibérée.

4. Nous ne devons pas ignorer qu'il y a eu une fusion très intelligente de ces deux positions : une fusion qui ne s'est pas évanouie avec l'évanouissement du "mythe du progrès" mais qui survit pour soutenir la politique étrange et nouvelle de ce que nous pourrions appeler le "mythe de la durabilité". Cette fusion est extrêmement condescendante et sûre d'elle-même car elle associe la certitude scientifique de ce qui s'est passé inconsciemment pour améliorer le monde à la certitude morale de ce qui devrait maintenant être fait consciemment pour améliorer le monde. Elle semble réunir individu et collectif d'une manière qui est censée rendre impossible tout renoncement.

 

Auteur: Alexander James

Info: Daily Skeptic. Quatre hypothèses sur l'élite mondiale laïque-corporatiste, 20 février 2023. Trad Mg, avec DeePL

[ état des lieux ]

 

Commentaires: 0

Ajouté à la BD par miguel