Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5
Temps de recherche: 0.0422s

accélérationnisme

Rassasiés avant d'avoir eu faim, nous le sommes par une nourriture que nous n'avons même pas eu le temps de goût et de humer. "La disruption est ce qui va plus vite que la volonté, individuelle aussi bien que collective", pour reprendre la formule de Bernard Stiegler. Le temps qui nous a été volé est celui du manque, et donc du désir. Celui de l'amour, de l'autre et de l'absolu.

Auteur: Patino Bruno

Info: La Civilisation du poisson rouge

[ contrastes précipités ] [ absence ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

Que signifie vraiment "disruption" ou "disruptif" et pourquoi tout le monde en parle maintenant ?

Vous avez raison: on retrouve les mots "disruption" et ses dérivés un peu partout aujourd'hui. Ainsi on entend parler de "président disruptif", de startup qui "a pour ambition de disrupter le secteur de la douche" ou d'autres qui veulent "disrupter le chômage". En mai 2017, France Télévision expliquait au Monde que les invités mystères de l'Emission Politique, comme Christine Angot, étaient "parfois disruptifs".

Selon une défitinition présente dans le Dictionnaire de la langue française (1874) d'Emile Littré, le mot disruption signifie "rupture" ou "fracture". Pourtant on ne comprend pas trop ce que signifie "fracasser le secteur de la douche".

Si "disruption" s'est échappé du cercle restreint des cruciverbistes (les amateurs de mots croisés) pour se retrouver de manière très présente dans le vocable d'aujourd'hui, c'est surtout dû à son emploi dans le milieu de l'économie avec l'apparition de jeunes entreprises (les fameuses startups), qui ont su utiliser les outils numériques pour transformer certains marchés.

On pense notamment à Uber, Airbnb ou Netflix qui ont cassé des systèmes, qui paraissaient établis, des taxis, de l'hôtellerie ou de la location de films ou de séries, en proposant des services innovants (devenir soi-même chauffeur de sa propre voiture, louer son ou ses appartements et permettre pour un prix réduire d'accéder à des catalogues entiers de contenus culturels). Depuis tout entrepeneur qui a de l'ambition et espère connaître un succès aussi important que les entreprises citées, souhaite trouver l'idée disruptive qui lui permettra de transformer un marché pour faire table rase du passé.

En janvier 2016, la rédactrice en chef du service économie de L'Obs, Dominique Nora, avait consacré un article au "concept de "Disruption" expliqué par son créateur". Elle y faisait la recension du livre "New : 15 approches disruptives de l'innovation", signé par Jean-Marie Dru. Dans cette fiche de lecture, on apprend notamment que:

" DISRUPTION est une marque appartenant à TBWA [une important agence de publicité américaine; NDLR] depuis 1992, enregistrée dans 36 pays dont l'Union Européenne, les Etats-Unis, la Russie, l'Inde et le Japon."

Mais aussi qu'il n'a pas toujours eu un aura lié à l'entreprise:

Même en anglais, au début des années 90, le mot 'disruption' n'était jamais employé dans le business. L'adjectif caractérisait les traumatismes liés à une catastrophe naturelle, tremblement de terre ou tsunami…

Selon Jean-Marie Dru, père du concept, le terme sert d'abord à qualifier la "méthodologie créative" proposée aux clients de son agence.  Puis le professeur de Harvard, Clayton Christensen, va populariser l'expression à la fin des années 90 en parlant "d'innovation disruptive". Les deux hommes ont l'air de se chamailler sur la qualité de "qui peut être disruptif?". Dru estime que "pour Christensen, ne sont disruptifs que les nouveaux entrants qui abordent le marché par le bas, et se servent des nouvelles technologies pour proposer des produits ou services moins cher " alors que lui considère que la disruption n'est pas réservée uniquement aux startups puisque de grands groupes comme Apple ou Red Bull sont capables de "succès disruptifs".

Finalement au mileu de tous ces "disruptifs", L'Obs apporte cette définition de la disruption:

"Une méthodologie dynamique tournée vers la création". C'est l'idée qui permet de remettre en question les "Conventions" généralement pratiquées sur un marché, pour accoucher d'une "Vision", créatrice de produits et de services radicalement innovants.

Force est de constater que le marketing et les médias ont employé ces mots à tire-larigot et qu'ils peuvent être désormais utilisés dans n'importe quel contexte au lieu de "changer" ou "transformer", voire même de "schtroumpfer". Ne vous étonnez pas si votre conjoint se vante d'avoir "disrupter" la pelouse en la faisant passer d'abondante à tondue, ou d'avoir "disrupté" le fait de se laver en utilisant le shampoing au lieu du gel douche... 

Auteur: Pezet Jacques

Info: Libération, 13 octobre 2017

[ mode sémantique ] [ dépaysement libérateur ] [ accélérationnisme ] [ contre-pied ] [ contraste ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

orient-occident

- Klaus Schwab, le patron de Davos, a parlé d’un tsunami technologique entre la robotique, l’intelligence artificielle, les imprimantes 3D, les biotechnologies et l’hybridation de l’homme et de la machine, parce que tout cela bouscule nos vies et nos frontières. Il y a des disruptions partout. Par exemple, Uber est la plus grande société de taxis du monde, mais ils n’ont pas un seul taxi… AirBnb est la plus grande société hôtelière du monde, mais ils n’ont pas un seul hôtel… Amazon est la plus grande librairie du monde, mais ils n’ont pas une seule librairie… Toutes ces technologies entraînent des disruptions assez compliquées à saisir.

- C’est comme pour l’imprimerie ou l’électricité, il y a un certain nombre de choses qui se produisent et qui accélèrent les phénomènes. En 1960, General Motors ou General Electric étaient des sociétés dominantes qui duraient 60 ans. En 1980, on a vu des sociétés, comme IBM, qui ont été leaders pendant 35 ans. Mais aujourd’hui, les nouvelles entreprises comme Apple, Microsoft, Google ou Amazon vont durer une quinzaine d’années. Il y a une accélération et cela ne va faire qu’empirer. On parle beaucoup du match entre l’Amérique et la Chine. J’ai assisté à la montée du Japon, qui a fait un effort surhumain après la guerre. Après, comme ils ne faisaient plus d’enfants, les jeunes sont devenus des fils à papa et l’innovation a disparu. Dans les grandes villes chinoises, c’est la même chose. Les appartements sont trop petits et on risque de retrouver le même phénomène qu’au Japon, c’est-à-dire une diminution de l’innovation. En Amérique, ils savent rebondir, donc je ne pense pas que l’Amérique soit fichue. Quand on lit un certain nombre d’experts, on pourrait penser que la Chine pourrait prendre le relais, mais je ne crois pas que les choses se passeront ainsi. Lorsque la Russie s’est cassé la gueule, les Américains sont arrivés avec les grandes entreprises de consulting, comme McKinsey, et ils ont fait faire des bêtises aux Russes. Les Chinois ont beaucoup médité là-dessus pour ne pas faire la même chose. Ils ont essayé d’inventer un nouveau modèle, qui est beaucoup basé sur la technologie, avec de nombreux défauts quand même. Il faut savoir qu’il y a 900 millions de personnes qui sont sorties de la pauvreté en Chine, mais il y a encore 600 millions de gens qui vivent très pauvrement. C’est pour cette raison que le modèle capitaliste occidental ne convient pas bien à la Chine. On assiste donc à un basculement de l’Occident vers l’Orient, puisque les grandes démographies sont en Orient, mais cela entraîne en même temps une précarité des classes moyennes de l’Ancien Monde riche. L’Europe a dominé 70 % de la planète pendant une époque et, quand les Américains ont pris le relais des Anglais, ils ont automatiquement voulu faire du consumérisme en créant leur village mondial pour vendre leurs produits et amener la démocratie en même temps. Mais la démocratie, cela ne fonctionne pas dans des pays comme la Chine ou l’Inde. Par le biais du consumérisme, les gens ont accédé aux nouvelles technologies, avec toutes les menaces que cela entraîne, mais les promesses étaient tout à fait agréables. On ne se rend pas compte que l’on transmet toutes nos données. Donc, nous sommes fliqués. Les Chinois ont commencé et maintenant les gouvernements occidentaux trouvent que ce n’est pas si mal. Il y a un vrai risque pour nos démocraties.

- L’Europe aurait intérêt à s’écarter davantage de l’Amérique pour réinventer un modèle qui lui soit propre

- Malheureusement, c’est ce qui est en train d’arriver et on ne peut rien faire contre cela. Il y a trois cerveaux dans chaque individu : le néocortex, le limbique et le reptilien. Le néocortex, c’est ce qui est raisonnable. Le limbique, c’est l’émotion. Et le reptilien, c’est le repli sur soi. On voit tous les phénomènes populistes dans de nombreux pays et c’est le repli sur soi reptilien. Quand on ajoute cela à l’émotion, on évoque la nécessité de restaurer la Grande Russie quand on parle au peuple russe, on évoque la grande Chine, et les Américains rêvent d’une grande Amérique… Le néocortex, c’est la raison, et c’est toujours le moins fort. C’est pour cette raison que j’écris que dans quelques décennies, les hommes ne pourront plus comprendre notre psychologie. C’est pour cette raison aussi que les régimes forts vont plus vite que les démocraties. Churchill disait que la démocratie est le moins mauvais des systèmes, mais si c’est un régime fort, on ne discute pas, donc cela va plus vite. L’Europe s’est endormie, on ne veut plus faire la guerre, on est désarmé et, quand il arrive une histoire comme l’Ukraine, on est incapable de faire ce qu’il faut. Maintenant, le match entre les États-Unis et la Chine remet notre modèle en question. On pensait que le modèle démocratique allait s’imposer après la chute du Mur de Berlin. Il y a eu une prolifération des démocraties et, aujourd’hui, on s’aperçoit que l’on est en train de reculer sur ce point. Au fond, l’Europe aurait intérêt à s’écarter davantage de l’Amérique pour réinventer un modèle qui lui soit propre.

Auteur: Salmon Robert

Info: interviewé sur https://www.kernews.com/

[ neuroscience ] [ géopolitique ] [ futurologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-darwinisme

Internet et l’informatique en général ont joué un rôle permanent dans l’histoire de la mémétique, par exemple en faisant accepter l’idée que des codes non biologiques (typiquement, les virus informatiques) puissent avoir une reproduction autonome. La résolution de problèmes industriels a rebaptisé mémétiques les algorithmes génétiques. Mais surtout, le tissu social de l’internet, plus maillé de jour en jour, constitue une deuxième couche de lien social, d’interactions et de contenu. Il prend une telle épaisseur qu’il abrite sa propre faune. Des contenus – humoristiques, effrayants ou engagés – prolifèrent à une vitesse telle qu’on ne pourrait plus les contrôler sans "fermer" Internet. On appelle cela Internet memes parce que, depuis le début, la mémétique et la web culture sont consanguines. Le court-circuit linguistique ne s’est pas fait attendre, bien que personne ne l’ait anticipé : les "mèmes Internet" sont devenus mèmes par la grâce simplificatrice des médias grand public. Le nom sans objet a fusionné avec l’objet sans nom. Malheureusement, on se polarise trop sur les contenus sémantiques d’Internet, alors que l’on devrait aussi s’intéresser à la structure procédurale qui les sous-tend, en étudiant par exemple les puissants mèmes aux implications politiques et sociétales lourdes que sont Share (partagez du contenu), Like (dites que vous aimez) et Report (signaler un abus) !

Au fil des années, la communauté des méméticiens avait commencé à "tuer le père" en se détachant progressivement de Dawkins, de son analogie trop simple, éloquemment nommée "camisole intellectuelle" (Wallace, 2013). Mais voici qu’au festival de Cannes 2013, le succès des Internet memes fait sortir du bois "l’athée le plus célèbre du monde", avec un vidéo-clip taillé selon les codes visuels de YouTube. La nouvelle "petite phrase" de Dawkins est un pied de nez à toute la science sérieuse : "L’idée même de mème a elle-même muté et évolué dans une nouvelle direction".

Le jeu de mot "mutations are designed not random" (les mutations sont créées, pas aléatoires) est délibérément contestable : il ouvre une conception nouvelle du rapport entretenu par les variantes culturelles avec le terrain humain. La créativité et l’intention de l’artiste y font partie des conditions de naissance de la solution créative, sont le générateur de hasard.

Si exaspérant soit-il, Dawkins joue son rôle de diva en "levant des fonds" : il utilise le modèle économique de demain, celui qui convertit l’attention captée en revenus. Grâce aux Internet memes, il fait d’une pierre trois coups. Car pour une nouvelle science, il ne faut pas seulement de nouvelles lunettes et beaucoup de temps de cerveau, mais aussi un nouveau champ de données, une espèce inconnue, un nouveau continent. Autrement, on se heurte au reproche classique : "mais pourquoi aurait-on besoin de vos nouvelles lunettes, alors que celles que nous fabriquons déjà fonctionnent très bien ?" L’ennui, c’est que les vieilles lunettes ne voient pas bien ce qui est en train de se passer parce que cela va trop vite.

Une autre forme de science est nécessaire pour demain

On sait dire aujourd’hui "à quelle question la mémétique apporte une réponse". Les questions apparaissent chaque jour un peu plus clairement : pourquoi les phénomènes de société échappent-ils à toute prévision et plus encore à tout contrôle ? Pourquoi même les bonnes nouvelles sont-elles surprenantes ? Qu’est-ce qui influence les influenceurs ? Jusqu’où tel bouleversement va-t-il se propager ? Est-il normal que les objets nous utilisent et communiquent entre eux ? Aujourd’hui, la difficulté de prévoir, l’irruption permanente et encouragée de la nouveauté, voire de la disruption, ainsi que l’explosion des données massives (big data) appellent les compétences sociocognitives des "tendanceurs". Pensée rapide, échanges en réseau, erreur autorisée, remise en cause permanente et preuve par l’action. La mémétique rejoint cet arsenal des chasseurs de tendances parce qu’elle voit le monde avec d’autres lunettes, des lunettes qui savent que l’on regarde du vivant autoorganisé et non plus du "construit par l’homme selon des plans". Du coup ces lunettes nous rendent davantage capables de voir ce qui change rapidement et d’en percevoir les évolutions possibles. Aujourd’hui, la mouvance de l’économie collaborative se propose de mettre en partage le "code source" d’innovations citoyennes directement prêtes à être  expérimentées. 

Il devient impossible de penser seul ou en petits groupes centrés sur l’allégeance à un seul paradigme. Les sujets d’études offerts aux sciences de l’homme par le monde contemporain affolent par leur nombre, leur diversité et leur vitesse de renouvellement. De même, la connaissance se fabrique partout en même temps, dans un tissu ouvert constitué de personnes et de machines. La conscience même du sujet connecté n’est plus la même que celle du sujet isolé. La mémétique peut fournir un ensemble de métaphores agissant à la manière de passerelles interdisciplinaires, telles que la vision des solutions comme chemins entre états instables, celle du stockage partiel des souvenirs dans les objets, ou celle de l’ADN organisationnel comme fonctionnement implicite partagé des collectifs.

Une première condition est le recentrage indispensable de l’observation, du mème abstrait vers la solution concrète que l’on voit se reproduire et évoluer.

Une autre serait de mettre en lien souplement, autour de ce concept général de solutions, toutes les observations et réflexions – sans aucune contrainte disciplinaire – sur la manière dont nos actions s’inspirent et se déclenchent à partir des corps, des lieux et des objets, se répètent, sont bien ou mal vécues en commun, sont mémorisées, fabriquent des structures, produisent des récits…

Mais avant tout, la plus importante est de reconnaître la mémétique pour ce qu’elle est : un projet collaboratif, spontané, a-disciplinaire, mondial, qui nous équipe d’un regard neuf sur ce que la vie humaine est en train de devenir… un regard qui change jusqu’à notre conception de nous-mêmes. La mémétique ne mourra pas tant que ce travail restera à faire. Elle ne s’effacera pas, si ce n’est dans un projet plus grand qui réponde aux mêmes nécessités et partage la même ouverture.

Auteur: Jouxtel Pascal

Info: In Cairn infos, reprenant Hermès, La Revue 2013/3 (n° 67), pages 50 à 56

[ distanciation ] [ recul épistémologique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel