Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 10
Temps de recherche: 0.0376s
néant créateur
Il y a ce terme "éther", qui était jadis celui du 5e élément (le plus subtil), et qui représente aussi le vide cosmique, l'espace interstellaire, etc.
Il y a les recherches des physiciens, expérimentateurs/théoriciens qui ont besoin de machines toujours plus grandes aussi bien en taille qu'en énergie afin de faire émerger du rien de minuscules et éphémères phénomènes qui permettent parait-il de voir/comprendre plus loin ou plus profond dans la structure intime de la matière (particules élémentaires, quarks, gluon, mésons... récemment le boson de Higgs). Quête scientifique, exploration grégaire méthodique, qui fait émerger des mondes parallèles difficilement saisissables puisqu'à de plus hautes énergies, vitesses, fréquences... univers (simple ou multiples ?) que la puissante abstraction des mathématiciens réussit à faire apparaitre et modéliser.
Il y a aussi le monde astral, grand fouillis qui émerge des récits de mystiques et autres ésotéristes de tous poils. Ici sont sans cesse évoqués divers et infinis niveaux vibratoires, le nôtre, celui du monde incarné où nous vivons, se situant semble-t'il plutôt en bas de l'échelle.
Voilà la bonne nouvelle, tous ces déserts apparents sont d'une immense fécondité. Fonçons les explorer, et conservons ce leitmotiv : ce que nous savons nous aveugle.
Auteur:
Mg
Années: 1958 - 20??
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: musicien, compilateur, sémioticien, directeur, guitariste, compositeur-chercheur, entrepreneur, astacologue, écrivain, imprimeur-éditeur-producteur, linguiste, père de famille, chansonnier, politicien très local, brocanteur, bûcheron, agent-couchettes...
Continent – Pays: Europe - Suisse
Info:
1 novembre 2020
[
prolifique vacuité
]
[
tour d'horizon
]
complications idiomatiques
La complexité dans les sciences du langage, en en explorant leurs différentes facettes et implications au travers de 9 points clés
1 Activités langagières : Bien que parler, écrire, écouter et lire semblent simples pour ceux qui les pratiquent quotidiennement, les processus cognitifs et linguistiques sous-jacents sont complexes.
2 Apprentissage du langage : La complexité se manifeste particulièrement lors de l'apprentissage d'une langue, que ce soit pour les enfants ou les adultes apprenant une langue seconde.
3 Différentes perspectives : La complexité est perçue différemment selon qu'on est psycholinguiste, linguiste, descriptiviste, ou modélisateur, et selon le sujet étudié (natif, non-natif, apprenant, etc.).
4 Types de complexité : Le texte distingue la complexité conceptuelle, formelle et physiologique, particulièrement pour ce qui concerne l'acquisition du langage.
5 Enjeux pour les linguistes : La complexité pose des défis en termes de représentation, modélisation et explication des phénomènes linguistiques.
6 Rôle de la complexité : Bien qu'elle puisse être un obstacle, la complexité est nécessaire et intrinsèque aux langues, participant à leur équilibre et à leur évolution.
7 Méthodologie : Le texte soulève des questions sur les approches et les outils pour mesurer et décrire la complexité linguistique. SVO, SOV et autres typologies syntaxiques.
8 Domaines spécifiques : La complexité est examinée dans différents domaines linguistiques comme la syntaxe, la sémantique, la pragmatique et la linguistique textuelle.
9 Modélisation : Le texte aborde les défis de la représentation d'objets linguistiques complexes dans les modèles.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Appel aux contribution du 8 juillet 2024, sur in-atala, pour la réunion autour de "La complexité en sciences du langage" les 12 & 13 décembre 2024, Maison de la Recherche, 4 rue des Irlandais 75005 Paris
[
tour d'horizon
]
[
grammaires translangues
]
[
lexie
]
[
codages
]
[
dialectes humains
]
[
récapitulatif
]
[
survol
]
[
bilan
]
introspection
Des siècles de nombrilisme. Millénaires de masturbation. De Platon à Descartes à Dawkins à Rhanda. Âmes, agents zombies et qualia*. Complexités de Kolmogorov. La conscience comme étincelle divine. L'esprit comme un champ électromagnétique. La conscience en tant que groupe fonctionnel.
J'ai tout exploré.
Wegner la pensait comme un résumé. Penrose l'imaginait telle le chant d'électrons captifs. Tor Nørretranders prétend que c'est une fraude ; Kazim a parlé de fuites provenant d'un univers parallèle. Metzinger ne voulait même pas admettre son existence. Les IA pensaient l'avoir mis au jour, puis ont annoncé qu'elles ne pouvaient pas nous l'expliquer. Gödel avait raison après tout : aucun système ne peut se comprendre entièrement lui-même.
Même les meilleurs synthésistes n'avaient su en faire quelque chose. Les murs porteurs ne supportaient simplement pas cette charge.
J'ai commencé à réaliser qu'ils avaient tous raté le coche. Toutes ces théories, tous ces rêves de médications, toutes ces expériences et tous ces modèles essayant de prouver ce qu'elle était : aucun pour expliquer à quoi elle servait. Pas besoin : de toute évidence, la conscience fait de nous ce que nous sommes. Elle nous permet de voir la beauté et la laideur. Elle nous élève vers le royaume exalté du spirituel.
Oh, quelques outsiders - Dawkins, Keogh, écrivain de pacotille qui atteignait à peine l'obscurité - se sont brièvement interrogés sur le pourquoi de la chose : pourquoi pas de simples ordinateurs, rien de plus ? Pourquoi les systèmes non-sensibles devraient-ils être intrinsèquement inférieurs ? Mais leurs voix ne se sont jamais élevées au-dessus de la foule. La valeur de ce que nous sommes était trop trivialement évidente pour être sérieusement remise en question.
Pourtant, les questions persistent, dans l'esprit des chercheurs, à travers l'angoisse de tous les jeunes excités de quinze ans de la planète. Ne suis-je rien d'autre qu'une étincelle chimique ? Suis-je un aimant dans l'éther ? Je suis plus que mes yeux, mes oreilles, ma langue ; je suis la petite chose derrière ces choses, la chose qui regarde de l'intérieur. Mais qui regarde par ses yeux ? A quoi se réduit-il ? Qui suis-je ? Qui suis-je ? Qui suis-je ?
Bonjour la question de merde. J'aurais pu y répondre en une seconde, si Sarasti ne m'avait pas obligé à la comprendre d'abord.
Auteur:
Watts Peter
Années: 1958 - 20??
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: écrivain de SF, biologiste, enseignant
Continent – Pays: Amérique du nord - Canada
Info:
Blindsight. *conscience phénoménale, contenu subjectif de l'expérience d'un état mental.
[
moi
]
[
ego
]
[
subjectivité
]
[
tour d'horizon
]
sciences dures
La physique fondamentale est confrontée à un ralentissement des progrès. Après les découvertes révolutionnaires du XXe siècle, comme la relativité générale et la théorie quantique, le début du XXIe siècle a surtout confirmé ces théories sans apporter de nouvelles percées majeures. Les physiciens reconnaissent que leur compréhension des lois de la nature est incomplète. Ils ne savent pas pourquoi certaines particules ont une masse, ce qui maintient les galaxies ensemble, ou quelle énergie provoque l'expansion de l'univers. Le plus grand défi est l'échelle : les physiciens manquent d'équations pour décrire les événements se déroulant à des échelles extrêmement petites, comme celles impliquées dans la formation des trous noirs.
Limites des Expériences Actuelles
Les physiciens des particules ont repoussé les limites de leur ignorance en utilisant des accélérateurs de particules, comme le Grand collisionneur de hadrons (LHC) en Europe. Cependant, construire des accélérateurs encore plus grands pour explorer des échelles plus petites pose des défis financiers et technologiques considérables. Bien que des expériences non basées sur des collisionneurs cherchent des déviations subtiles par rapport aux prédictions, les physiciens se heurtent à des limites similaires à mesure que leurs expériences deviennent plus complexes.
Nouvelles Approches : L'Astrophysique
Face à ces défis, les physiciens se tournent vers l'astrophysique pour trouver des indices sur les lois fondamentales de la nature. Les événements cosmiques, tels que les explosions d'étoiles et les collisions de trous noirs, sont beaucoup plus extrêmes que ce qui peut être recréé en laboratoire.
Ondes Gravitationnelles
Une des pistes prometteuses est la détection des ondes gravitationnelles, des ondulations dans l'espace-temps causées par des événements cataclysmiques. Les chercheurs espèrent que le projet LISA (Laser Interferometer Space Antenna), prévu pour les années 2030, détectera des ondes gravitationnelles générées juste après le Big Bang, offrant un aperçu des lois physiques à cette époque.
Cartographie des Galaxies
Une autre approche consiste à cartographier les galaxies pour étudier la distribution des particules quantiques après le Big Bang. Cette analyse pourrait révéler des événements quantiques qui ont eu lieu à l'aube de l'univers.
Mystères Actuels
Les physiciens étudient également des phénomènes inexplicables dans l'univers moderne, comme une explosion lumineuse observée en 2022, qui pourrait impliquer des particules de matière noire.
Conclusion
Décoder ces indices subtils de nouvelle physique dans le cosmos demandera des années de théorisation, de planification, d'observation et d'analyse. Cependant, avec un peu de chance, cela pourrait conduire à une nouvelle révolution en physique. L'article souligne l'importance de l'astrophysique comme nouvelle frontière pour explorer les lois fondamentales de la nature.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Quanta Magazine, Why the Next Physics Revolution Might Come From Above By Charlie Wood, august 2et résumé : perplexity.ai024. Trad
[
tour d'horizon
]
évolutionisme
Ceci nous amène à nous interroger sur les raisons qui plaident en faveur de cette nouvelle théorie de la trans-mutation. Le commencement des choses se trouve nécessairement dans l'obscurité, au-delà des limites de la preuve, tout en restant à l'intérieur de celles de la conjecture ou de l'inférence analogique. Pourquoi ne pas s'en tenir à l'opinion habituelle, que toutes les espèces furent créées directement, et non indirectement, d'après leurs genres respectifs, tels que nous les voyons aujourd'hui, et cela d'une manière qui, dépassant notre entendement, renverra intuitivement au surnaturel ? Pourquoi cette recherche continuelle de "l'inaccessible et de l'obscur", ces efforts anxieux, surtout depuis quelques années, des naturalistes et des philosophes de diverses écoles et de diverses tendances, pour pénétrer ce que l'un d'eux appelle "le mystère des mystères", c'est-à-dire l'origine des espèces ? A cette question, en général, on peut trouver une réponse suffisante dans l'activité de l'intellect humain, "le désir délirant, mais divin, de savoir", stimulé comme il l'a été par son propre succès dans le dévoilement des lois et des processus de la nature inorganique, dans le fait que les principaux triomphes de notre époque en science physique ont consisté à tracer des liens là où aucun n'avait été identifié auparavant, à ramener des phénomènes hétérogènes à une cause ou à une origine commune, d'une manière tout à fait analogue à celle qui consiste à ramener des espèces supposées indépendantes à une origine ultime commune ; ainsi, et de diverses autres manières, à étendre largement et légitimement le domaine des causes secondaires. Il est certain que l'esprit scientifique d'une époque qui considère le système solaire comme issu d'une masse fluide commune en rotation, qui, par la recherche expérimentale, en est venu à considérer la lumière, la chaleur, l'électricité, le magnétisme, les affinités chimique et la puissance mécanique comme des variétés ou des formes dérivées et convertibles d'une seule force, plutôt que comme des espèces indépendantes, qui a réuni les types de matière dits élémentaires, tels que les métaux, dans des groupes apparentés, et qui a soulevé la question de savoir si les membres de ces groupes pouvaient être des espèces indépendantes, est en droit de s'attendre à ce qu'il en soit ainsi, et qui pose la question de savoir si les membres de chaque groupe ne sont pas de simples variétés d'une même espèce, tout en spéculant avec constance dans le sens d'une unité ultime de la matière, d'une sorte de prototype ou d'élément simple qui pourrait être pour les espèces ordinaires de matière ce que les protozoaires ou les cellules constitutives d'un organisme sont pour les espèces supérieures d'animaux et de plantes, on ne peut s'attendre à ce que l'esprit d'une telle époque laisse passer sans discussion l'ancienne croyance sur les espèces.
Auteur:
Gray Asa
Années: 1810 - 1888
Epoque – Courant religieux: Industriel
Sexe: H
Profession et précisions: botaniste
Continent – Pays: Amérique du nord - Usa
Info:
Darwin on the Origin of Species", The Atlantic Monthly (juillet 1860),
[
historique
]
[
tour d'horizon
]
[
curiosité
]
[
rationalisme monothéiste
]
[
source unique
]
[
matérialisme
]
moyen âge
Chez les historiens médiévistes, qui en restent les principaux utilisateurs, la notion de féodalité renvoie schématiquement à trois usages différents. Un usage traditionnel (François-Louis Ganshof, Robert Boutruche), politique et juridique, désigne par féodalité les liens féodo-vassaliques, c'est-à-dire les relations hiérarchisées internes à l’aristocratie, fondées sur la fidélité (manifestée par le serment, auquel s'ajoute parfois le rituel de l'hommage), l'échange de services (la protection, l'aide et le conseil) et la possession partagée d'un fief (à la fois bien foncier et ensemble de droits seigneuriaux), entre seigneurs et vassaux. Cette organisation de la classe dominante constituerait la caractéristique majeure de la société européenne médiévale, pour certains dès l'époque carolingienne, pour d'autres plus tard, à l'âge justement désigné comme féodal. C'est cet usage traditionnel de la notion qui a fait l'objet du plus grand nombre de critiques, d'abord de la part d'historiens plus sensibles à la primauté du rapport de domination seigneurial sur les paysans (Rodney Hilton, Georges Duby, Robert Fossier), ensuite de la part d'historiens influencés par l'anthropologie et plus attentifs aux modalités non féodales de la régulation sociale à l'échelle des sociétés locales (Fredric Cheyette, Patrick Geary, Stephen White, Dominique Barthélemy) ou aux solidarités coutumières à l'échelle des royaumes (Susan Reynolds). Un deuxième usage, plus large et plus fréquent depuis les travaux de Marc Bloch et Georges Duby recourt au terme féodalité ou à l'expression société féodale pour définir une société où la domination sur la terre et les hommes est exercée à l'échelle locale au profit d'une aristocratie à la fois foncière et guerrière, laïque et ecclésiastique, à l'écart de toute souveraineté de type étatique. Dans ce cadre, la féodalité au sens traditionnel n'est plus que l'un des instruments de la reproduction de la domination aristocratique parmi d'autres, telles que la guerre vicinale, la culture de la faide (vendetta entre familles) ou l'élaboration de systèmes de représentations spécifiques comme "l'idéologie des trois ordres” clergé, noblesse et Tiers état . Un troisième usage (Guy Bois, Ludolf Kuchenbuch. Chris Wickham), souvent d'inspiration marxiste, emploie indifféremment féodalité ou féodalisme pour caractériser un régime social fondé sur l'appropriation du surproduit paysan par la classe aristocratique (laïque et ecclésiastique) à travers le grand domaine puis la seigneurie. Dans ce cadre aussi la féodalité au sens traditionnel est généralement considérée comme la principale modalité de redistribution de la "rente seigneuriale" au sein du groupe dominant (Pierre Bonnassie). Des considérations chronologiques variées sont associées à chacune de ces conceptions de la féodalité, les unes englobant l'ensemble de la période médiévale. de la chute de l'Empire romain à l'avènement des États modernes (tantôt situé aux XIVe- XVIe siècles, tantôt repoussé au XVIIIe siècle), les autres une période plus restreinte censée correspondre à la dissolution maximale de l'autorité publique entre l’effondrement de l’Empire carolingien et le renouveau monarchique capétien au XIIe siècle.
Auteur:
Gauvard Claude
Années: 1942 -
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: F
Profession et précisions: historienne, écrivaine, universitaire
Continent – Pays: Europe - France
Info:
Dictionnaire de l'historien
[
tour d'horizon
]
[
sociologie
]
[
pouvoirs
]
élément irréductible de l'anneau des entiers relatifs
Comment les nombres premiers révèlent la structure cachée des mathématiques
1, 2, 3, 4, 5 — les mathématiques commencent par compter. Viennent ensuite l’addition, puis la multiplication. À première vue, elles semblent assez similaires. Après tout, la multiplication n’est qu’une simple addition répétée : 7 × 5 est une façon plus courte d’écrire 5 + 5 + 5 + 5 + 5 + 5 + 5.
Mais si vous regardez à l'intérieur des nombres pour voir de quoi ils sont faits, cette similitude initiale s'effondre. Essayez de partitionner n'importe quel nombre entier en parties plus petites en utilisant l'addition, et vous aurez un riche éventail d'options. Par exemple, 11 = 5 + 6 = 4 + 7 = 3 + 3 + 3 + 2. (Il existe 56 façons de diviser 11.) Au fur et à mesure que les nombres deviennent plus grands, le nombre de partitions augmente régulièrement . Mais si vous essayez plutôt de diviser les nombres en utilisant la multiplication, une image très différente émerge. Il existe de nombreuses façons de diviser 30 : il y a 3 × 10, 5 × 6 et 2 × 15. Mais 31 ne peut pas du tout être divisé. Il est premier. Ses seuls facteurs sont lui-même et 1.
Cette distinction entre addition et multiplication est l'un des passages les plus doux vers le désert des mathématiques abstraites. La définition des nombres premiers implique la multiplication. Mais les nombres premiers forment également des motifs additifs à la texture mystérieuse.
Beaucoup de ces modèles ont motivé les plus grands problèmes mathématiques en suspens. Par exemple, les mathématiciens soupçonnent qu'il existe une infinité de nombres premiers jumeaux — des nombres premiers (multiplicatifs) qui diffèrent de 2 (additifs), comme 29 et 31 ou 41 et 43. Mais personne n'a pu le démontrer avec certitude. De même, les mathématiciens pensent que tout nombre pair supérieur à 2 peut s'écrire comme la somme de deux nombres premiers, un problème appelé la conjecture de Goldbach. Cela aussi reste à prouver.
Mais de nombreux autres faits sont bien établis. Il existe une infinité de nombres premiers. Les mathématiciens continuent d' apporter de nouvelles preuves de ce fait, même si c'est l'un des résultats les plus anciens des mathématiques. On sait aussi que les nombres premiers se raréfient le long de la droite numérique. En 1896, Jacques Hadamard et Charles-Jean de la Vallée Poussin ont prouvé indépendamment le théorème des nombres premiers, qui établit une très bonne estimation de leur rareté. Ce théorème est l'un des résultats fondamentaux de la théorie analytique des nombres, une branche des mathématiques qui relie l'étude des nombres entiers à celle des fonctions à évolution régulière.
Quoi de neuf et d'intéressant
À première vue, les nombres entiers et les fonctions n’ont pas grand-chose à voir les uns avec les autres. Pourtant, le lien qui les unit est profond. L’un de ses aspects les plus fascinants est l’hypothèse de Riemann, sans doute la question ouverte la plus importante (et la plus difficile à résoudre) des mathématiques modernes.
En apparence, l'hypothèse n'a rien à voir avec les nombres premiers : elle concerne le comportement d'une somme infinie qui n'implique pas directement de nombres premiers. Mais si elle est vraie, les mathématiciens auront un moyen de rendre compte des écarts par rapport aux prédictions du théorème des nombres premiers. Les nombres premiers semblent être dispersés au hasard parmi les entiers, mais l'hypothèse de Riemann fournit une sorte de clé gnomique qui explique pourquoi ils apparaissent à ce moment-là.
En mai, James Maynard et Larry Guth ont prouvé une nouvelle limite sur les exceptions possibles à l'hypothèse. (Les physiciens ont aussi des idées sur la façon de s'y prendre.) L'année dernière, trois étudiants de Maynard ont prouvé un nouveau résultat sur la façon dont les nombres premiers sont distribués dans différents types de compartiments mathématiques. D'autres axes de travail examinent encore la façon dont les nombres premiers sont distribués dans des intervalles plus courts .
On sait depuis longtemps que les nombres premiers forment des amas, parfois ils laissent de grands espaces entre eux, parfois de petits. En 2013, Yitang Zhang, alors mathématicien inconnu, a prouvé qu'il existe un nombre infini de nombres premiers séparés par moins de 70 millions de nombres. Ce fut la première étape importante vers la démonstration qu'il existe un nombre infini de nombres premiers jumeaux : 70 millions, bien que ce soit un nombre important, est fini.
Quelques mois plus tard, une collaboration incluant Maynard a montré qu'il était possible de faire un peu mieux : ils ont réduit l'écart de 70 millions à 600 .
Tout aussi intéressante pour les mathématiciens est la question de savoir à quelle distance peuvent se trouver les nombres premiers. (Même si certains nombres premiers sont très proches les uns des autres, d'autres paires de nombres premiers adjacents sont très éloignées.) L'espacement moyen tend vers l'infini pour les grands nombres, mais les mathématiciens tentent de caractériser la vitesse à laquelle les écarts peuvent se creuser .
Les nombres premiers créent de nombreux modèles au-delà de la simple façon dont ils sont distribués. À l'exception de 2, tous les nombres premiers sont impairs. Cela signifie que certains, comme 5, laissent un reste de 1 lorsqu'ils sont divisés par 4, tandis que d'autres, comme 11, laissent un reste de 3. Il s'avère que ces deux types différents de nombres premiers ont des comportements fondamentalement différents, un fait appelé réciprocité quadratique , qui a été prouvé pour la première fois par Carl Gauss au 19e siècle. La réciprocité est un outil de base pour les mathématiciens d'aujourd'hui. Par exemple, elle a joué un rôle clé dans une preuve l'été dernier sur la façon dont les cercles peuvent être regroupés.
La notion de nombre premier, ou indivisible, ne se limite pas aux nombres. Des expressions appelées polynômes, comme x ⁵ + 3 x ² + 1, peuvent également être premières. En 2018, deux mathématiciens ont montré que presque tous les polynômes d'une classe particulière sont premiers.
Au premier abord, il n'est pas évident de comprendre à quel point les nombres premiers sont spéciaux. En comptant, on a l'impression que 7 et 11 sont indivisibles, alors que les autres nombres ne le sont pas. Mais le simple fait de compter crée des structures subtiles et complexes qui permettent à chacun d'entrevoir la grandeur inexorable de la vérité mathématique.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://us1.campaign-archive.com/?u=0d6ddf7dc1a0b7297c8e06618&id=1afb830f9a, Konstantin Kakaes, 19 aout 2024
[
tour d'horizon
]
passéistes
Alors que la revue Philitt publie un recueil de ses meilleures contributions, son directeur explique la démarche de l’antimoderne, et en quoi elle se distingue de celle du conservateur ou du réactionnaire .
FIGAROVOX : - Dans l’introduction de votre recueil "Résister à la modernité", vous reprenez l’apostrophe de Rimbaud "être absolument moderne" pour l’inverser "être absolument antimoderne". Qu’entendez-vous par antimoderne? Est-il possible de rejeter la modernité en bloc?
M. GIROUX : - Les antimodernes renvoient à une tradition précise très bien thématisée par Antoine Compagnon dans un livre paru en 2005 Les antimodernes: De Joseph de Maistre à Roland Barthes. Il est essentiel de comprendre que les antimodernes sont des modernes. Ce sont, comme dit Compagnon, des modernes "déniaisés du moderne", des modernes "contrariés".
Car, en réalité, il n’y a d’anti-modernes que dans le monde moderne, époque dont la datation précise varie selon les écrivains. Certains disent que le monde moderne commence avec la révolution scientifique de Galilée (Michel Henry), d’autres avec la Réforme protestante (Joseph de Maistre), d’autres encore avec la Révolution industrielle (Günther Anders).
Charles Péguy, lui, fait commencer le "monde moderne" en 1881. Les antimodernes sont ceux qui identifient dans leur époque une forme de déclin spirituel et de diminution de l’homme. Les antimodernes sont paradoxaux car ils allient souvent une critique de l’idéologie du progrès avec une grande modernité esthétique. Baudelaire, Péguy, Bernanos détestent leur époque mais l’expriment à travers des formes littéraires renouvelées.
D’un point de vue politique, les anti-modernes sont encore ambivalents car ils sont souvent engagés dans les aventures politiques de leur temps. On peut aussi ajouter qu’ils sont très individualistes alors qu’il y a chez eux une critique permanente de l’individualisme. En résumé, les antimodernes sont, malgré eux, partie prenante de la modernité.
FIGAROVOX : - En quoi l’antimoderne se distingue-t-il du réactionnaire ou du traditionaliste?
M. GIROUX : - Joseph de Maistre, qui est le père de la réaction, est souvent considéré comme un antimoderne pour des raisons à la fois esthétiques et philosophiques. Sa langue est brillante et moderne, tant et si bien que Robert Triomphe disait de lui qu’il était un "Voltaire retourné". De même, Maistre, bien que contre-révolutionnaire estime que la "contre-révolution ne sera pas une révolution contraire mais le contraire de la révolution".
La Révolution est pour lui un châtiment qui doit purifier le peuple français par le sang. Il entérine la marche de l’histoire et un retour à l’ordre ancien n’a pas de sens à ses yeux. Selon moi, il y a presque un malentendu sur la notion de réactionnaire si l’on considère que Maistre l’initie. Aujourd’hui, le mot "réactionnaire" est dévoyé et ne renvoie à aucune réalité. On accuse confusément des personnalités d’être "réactionnaires" alors que ce sont, en gros, des libéraux conservateurs nostalgiques d’un passé récent, souvent celui de la France sous le Général de Gaulle.
Les traditionalistes à la Louis de Bonald ou les tenants de la Tradition à la René Guénon renvoient à des modes de pensée différents. Bonald est un doctrinal, précurseur de la sociologie française, qui n’a pas le charme esthétique d’un Maistre. De ce point de vue, c’est précisément parce qu’il n’est pas moderne qu’il n’est pas antimoderne.
Guénon, quant à lui, estime que l’histoire de l’humanité est une longue dégradation depuis un Âge d’or immémorial. Son logiciel mental est indépendant des catégories modernes. Il cherche moins à formuler une critique antimoderne qu’à asséner que la modernité est une anti-Tradition.
FIGAROVOX : - Vous critiquez l’homo reactus, c’est-à-dire le réactionnaire qui fait de l’anti-politiquement correct un réflexe. Pourquoi? N’est-il pas un peu snob que de vouloir trier entre les bons et les mauvais antimodernes? L’union contre le progressisme n’exige-t-elle pas de faire front?
M. GIROUX : - Homo reactus, néologisme inventé en référence à l’Homo festivus de Philippe Muray, n’est pas un réactionnaire au sens stricte. Si l’on considère que Joseph de Maistre est un réactionnaire - et nous avons vu que c’était déjà problématique - alors Homo reactus n’est pas un réactionnaire.
Homo reactus désigne plutôt une certaine frange des journalistes et des intellectuels qui ont fait du politiquement incorrect un argument commercial et une fin en soi. Homo reactus est politiquement incorrect, non parce qu’il défend une vision du monde profonde, mais par principe, pour montrer que, surtout, il n’est "pas-de-gauche".
Homo reactus, contrairement aux antimodernes, n’est pas du tout scandalisé par le monde tel qu’il est, il s’en accommode parfaitement et ne cherche pas à renverser la table. Comme son nom l’indique, Homo reactus réagit, mais il ne porte pas de discours positif. C’est un homme du ressentiment, tel qu’il a été thématisé par Nietzsche. Rien à voir donc avec les antimodernes dont la radicalité philosophique et esthétique bouleversent le sens commun.
FIGAROVX : - Vous nous faites découvrir énormément d’auteurs… Charles Péguy, Dostoïevski, Georges Bernanos, Léon Bloy, Soljenitsyne, Baudelaire, Guénon, Chesterton: quel est le point commun de tous ces écrivains ?
M. GIROUX : - Ce qui permet de rapprocher les antimodernes, tant ils différent sur de nombreux points quand on les prend individuellement, c’est leur ethos, c’est-à-dire leur tempérament. Ils sont habités par une conviction profonde: le monde qui est le nôtre a quelque chose de scandaleux. Le monde moderne est à la fois laid, bête et inique.
Le développement de la technique défigure la surface de la terre et avilit l’homme, les modes de vie contemporains encouragent un rapport utilitariste à autrui et mettent en berne la spiritualité, l’hégémonie du capitalisme aboutit à une nouvelle forme de servitude. Cet état de fait est la raison de la colère des antimodernes. Et ils ont en commun de ne pas transiger avec le monde tel qu’il est, de ne jamais "s’habituer", pour reprendre une terminologie de Péguy.
Leur vitupération, si elle peut être le signe d’un certain pessimisme, n’est pas pour autant une invitation au désespoir. Au contraire, l’antimoderne est travaillé par l’espérance et c’est de cette inadéquation entre la réalité et leur idéal que naît leur souffrance ainsi que leur inépuisable volonté d’en découdre.
FIGAROVOX : - Votre revue laisse une grande part à la littérature. En quoi celle-ci est-elle un antidote à la modernité?
M. GIROUX : - La littérature est une manière unique, non théorique, de rendre compte de la réalité. En cela, la littérature s’oppose à la démarche des sciences sociales. Alors que ces dernières réduisent la réalité à des entités objectives, évaluées selon des méthodes quantitatives, la littérature tire sa légitimité de la subjectivité qui la produit.
Ce serait une erreur, par exemple, de réduire l’œuvre de Balzac à une entreprise réaliste, voire naturaliste, de glorifier la Comédie humaine seulement parce que, comme on l’entend souvent, elle concurrencerait l’état-civil. Il y a chez Balzac plus qu’une description réaliste de la société française du XIXe siècle: il y a aussi la magie de la peau de chagrin ou le charisme faustien d’un Vautrin. Dostoïevski, qui avait beaucoup lu Balzac, avait compris cela.
Son œuvre, si elle a une dimension sociologique, est une aussi une plongée inquiétante dans les bas-fonds de la psyché humaine, une tentative de dévoilement du mystère profond de l’existence (Dieu, l’âme, la liberté). La littérature est intrinsèquement antimoderne dans la mesure où elle cherche à préserver l’existence de la vie intérieure. D’une certaine manière, on peut dire que le naturalisme - qui voulait donner à la littérature un statut scientifique - est une entreprise non-littéraire. La réduction sociologique de la littérature entraîne sa propre destruction.
FIGAROVOX : - Vous écrivez que le moderne se caractérise par la haine du secret et prescrivez contre le culte de la transparence et de l’exhibition la noblesse de la dissimulation. Pourquoi le moderne est-il hostile au secret? En quoi celui-ci est-il précieux à la civilisation?
M. GIROUX : - Le moderne ne croit pas qu’il existe une dimension cachée de l’existence, quelque chose qui échappe à une description objective. La modernité s’est en partie construite sur la dénonciation de certaines "illusions métaphysiques". Les grands mouvements scientistes de la fin du XIXe siècle sont la caricature de cette idéologie matérialiste: la nature de l’être est matérielle et rien n’existe qui ne puisse s’expliquer par des méthodes scientifiques.
Dès lors, ce qui n’est pas démontrable rationnellement mais qui renvoie à un autre type de convictions (la croyance, la foi, l’intuition etc.) est d’emblée exclu de la réalité. Le moderne est hostile au "secret" car il ne le comprend pas et préfère s’en moquer en l’accusant de relever d’une forme de superstition.
Michel Henry, ce grand philosophe malheureusement peu connu, estimait que la tradition philosophique occidentale avait été incapable de penser l’intériorité de la vie car elle fonctionnait selon le paradigme de la représentation, du voir, de la monstration.
Or, pour Henry, l’essence de la vie consistait à ne pas se montrer, à reposer dans le secret. Cette occultation de la vie est aux yeux de Henry la forme moderne de la barbarie.
Auteur:
Giroux Matthieu
Années: 198? -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: H
Profession et précisions: journaliste, fondateur et directeur de la revue de lettres et de sciences humaines PHILITT
Continent – Pays: Europe - France
Info:
sur https://www.lefigaro.fr, interview d'Eugénie Bastié, Publié le 23/01/2021
[
fermeture rationaliste
]
[
penseurs
]
[
réalité transposée
]
[
codage du réel
]
[
apriorisme aveugle
]
[
tour d'horizon
]
épistémologie
Opinion: Pourquoi la science a besoin de la philosophe
Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.
Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.
Clarification conceptuelle et cellules souches.
Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.
La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).
Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.
Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.
En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.
Immunogénicité et microbiome.
En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.
Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.
Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.
Influence sur les sciences cognitives.
L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".
La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.
La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.
La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.
La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .
La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.
La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.
La philosophie et la connaissance scientifique.
Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.
Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.
Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.
Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.
1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.
2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.
3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.
4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.
5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.
6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.
Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg
[
mécanisme
]
[
état des lieux
]
[
corps-esprit
]
[
tétravalences
]
[
tour d'horizon
]
intrications
Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.
Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").
Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.
Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.
Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.
Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.
Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".
Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…
Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.
Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".
Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.
Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.
Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.
Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.
La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.
Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.
Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.
Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.
Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.
Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.
Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.
Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.
Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.
L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.
Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !
L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.
De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.
Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.
Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.
Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.
Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.
Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.
Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).
L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !
Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.
Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.
Auteur:
Halévy Marc
Années: 1953 -
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: conférencier, expert et auteur, spécialiste des sciences de la complexité
Continent – Pays: Europe - Belgique
Info:
30 mars 2019
[
tour d'horizon
]
[
pentacle
]
[
monothéïsme
]
[
bricolage
]
[
sens unique temporel
]