Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 59
Temps de recherche: 0.0539s

biologie

La tendance est à l'expression d'une vérité inéluctable. L'avenir de la société sera mis au défi par les virus zoonotiques, une prédiction tout à fait naturelle, notamment parce que l'humanité est un puissant agent de changement, qui est le carburant essentiel de l'évolution. Malgré ces affirmations, j'ai débuté avec l'intention de laisser au lecteur une appréciation plus large des virus : ils ne sont pas simplement des agents pathogènes de la vie. Ce sont des partenaires obligés de la vie et une force formidable de la nature sur notre planète. En contemplant l'océan sous un soleil couchant, pensez à la multitude de particules virales dans chaque millilitre d'eau de mer : en survolant la forêt sauvage, considérez les viromes collectifs de ses habitants vivants. Le nombre impressionnant et la diversité des virus dans notre environnement devrait engendrer en nous une plus grande admiration quant au fait d'être en sécurité parmi ces multitudes que la crainte qu'ils nous fassent du mal.

La médecine personnalisée deviendra bientôt une réalité et la pratique médicale cataloguera et pèsera systématiquement la séquence du génome d'un patient. Peu de temps après, on pourra s'attendre à ce que ces données soient rejointes par les métagénomes viraux et bactériens du patient : l'identité génétique collective du patient sera enregistrée sur une seule impression. Nous découvrirons sans doute que certains de nos passagers viraux sont nocifs pour notre santé, tandis que d'autres sont protecteurs. Mais cette approche des virus que j'espère vous avoir fait apprécier en lisant ces pages n'est pas un exercice de comptabilité. La mise en balance des avantages et des menaces pour l'humanité est une tâche stérile. Le métagénome viral contiendra des fonctionnalités génétiques nouvelles et utiles pour la biomédecine : les virus peuvent devenir des outils biomédicaux essentiels et les phages continueront à s'optimiser peuvent également accélérer le développement de la résistance aux antibiotiques dans l'ère post-antibiotique et les virus émergents peuvent menacer notre complaisance et remettre en question notre société économiquement et socialement. Cependant, la simple comparaison de ces avantages et inconvénients ne rend pas justice aux virus et ne reconnaît pas leur juste place dans la nature.

La vie et les virus sont inséparables. Les virus sont le complément de la vie, parfois dangereux mais toujours beaux dans leur conception. Tous les systèmes de réplication autonomes et autonomes qui génèrent leur propre énergie favoriseront les parasites. Les virus sont les sous-produits incontournables du succès de la vie sur la planète. Nous leur devons notre propre évolution ; les fossiles de beaucoup sont reconnaissables dans les VRE* et les EVE** qui ont certainement été de puissantes influences dans l'évolution de nos ancêtres. Comme les virus et les procaryotes, nous sommes également un patchwork de gènes, acquis par héritage et transfert horizontal de gènes au cours de notre évolution depuis le monde primitif basé sur l'ARN.

On dit souvent que "la beauté est dans l'œil de celui qui regarde". Il s'agit d'une réaction naturelle à un événement visuel : un coucher de soleil, le drapé d'une robe de créateur ou le motif d'une cravate en soie, mais on peut également la trouver dans un vers de poésie, un ustensile de cuisine particulièrement efficace ou même l'efficacité impitoyable d'une arme à feu. Ces derniers sont des reconnaissances uniquement humaines de la beauté du design. Cette même humanité qui nous permet de reconnaître la beauté de la conception évolutive des virus. Ce sont des produits uniques de l'évolution, la conséquence inévitable de la vie, une information génétique égoïste et infectieuse qui puise dans la vie et les lois de la nature pour alimenter l'invention évolutive.

Auteur: Cordingley Michael G.

Info: Viruses: Agents of Evolutionary Invention. *entérocoques, qui sont un des micro-organismes à haut risque de transmissibilité et de développement croisé de résistance aux antibiotiques. Cette résistance aux glycopeptides a également un impact non négligeable, avec le risque redouté de transfert de cette résistance à Staphylococcus aureus, beaucoup plus répandu et pathogène. **ADN fossile ou pseudogènes

[ combat continuel ] [ prospective ] [ bacilles ] [ catalyseurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Les ordinateurs peuvent-ils être créatifs? Le projet WHIM ("What-if Machine"), financé par l'UE, génère non seulement des scénarios fictifs mais évalue également leur potentiel attractif et d'utilisation. Il représente une avancée majeure dans le domaine de la créativité informatique. La science ignore bien souvent le monde du fantastique, mais les choses changent avec le projet WHIM qui porte bien son nom (en anglais, "whim" signifie fantaisie). Ce projet ambitieux élabore un système logiciel capable d'inventer et d'évaluer des idées imaginaires. "WHIM est un antidote à l'intelligence artificielle traditionnelle, qui est obsédée par la réalité", déclare Simon Colton, coordinateur du projet et professeur en créativité informatique au Goldsmiths College, à l'université de Londres. "Nous faisons partie des premiers à appliquer l'intelligence artificielle à la fiction". L'acronyme du projet signifie What-If Machine. C'est également le nom du premier logiciel de conception de fictions au monde, par un processus d'idéation (processus créatif de production, de développement et de communication de nouvelles idées) développé dans le cadre du projet. Le logiciel génère des mini-récits fictifs en utilisant des techniques de traitement du langage et une base de données des faits trouvés sur le web (qui sert de référentiel de faits "réels"). Le logiciel intervertit ou déforme ensuite les faits pour créer des scripts hypothétiques. Le résultat est souvent absurde: "Que se passerait-il si une femme se réveillait dans une allée après avoir été transformée en chat, mais tout en étant toujours capable de faire du vélo ?" Les ordinateurs peuvent-ils juger la créativité ? WHIM est bien plus qu'une simple machine génératrice d'idées. Le logiciel cherche également à évaluer le potentiel d'utilisation ou la qualité des idées générées. En effet, ces dernières sont destinées à un usage par le public, et les impressions du public ont été sondées avec des expériences participatives (crowdsourcing). Par exemple, les personnes interrogées ont fait part de leurs impressions générales, précisant également aux chercheurs du projet WHIM si les scripts imaginaires produits étaient, selon elles, innovants et avaient un bon potentiel narratif. Au moyen de techniques d'apprentissage automatique, conçues par des chercheurs de l'institut Jozef Stefan de Ljubljana, le système acquiert progressivement une compréhension plus précise des préférences du public. "On pourrait dire que la fiction est subjective, mais il existe des schémas communs", déclare le professeur Colton. "Si 99 % du public pense qu'un humoriste est amusant, alors nous pourrions dire que l'humoriste est amusant, au moins selon la perception de la majorité". Ce n'est que le début Générer des mini-récits fictifs ne constitue qu'un aspect du projet. Des chercheurs de l'Universidad Complutense Madrid transforment les mini-récits en scripts narratifs complets, qui pourraient mieux convenir pour l'intrigue d'un film par exemple. Parallèlement, des chercheurs de l'University College Dublin tentent d'entraîner les ordinateurs à produire des idées et paradoxes métaphoriques en inversant et opposant des stéréotypes trouvés sur le web, tandis que des chercheurs de l'Université de Cambridge explorent l'ensemble du web à des fins de création d'idées. Tous ces travaux devraient engendrer de meilleures idées imaginaires plus complètes. Plus qu'une simple fantaisie Bien que les idées imaginaires générées puissent être fantaisistes, WHIM s'appuie sur un processus scientifique solide. Il fait partie du domaine émergent de la créativité informatique, une matière interdisciplinaire fascinante située à l'intersection de l'intelligence artificielle, la psychologie cognitive, la philosophie et les arts. WHIM peut avoir des applications dans plusieurs domaines. Une des initiatives envisage de transformer les récits en jeux vidéo. Une autre initiative majeure implique la conception informatique d'une production de théâtre musicale: le scénario, le décor et la musique. Le processus complet est en cours de filmage pour un documentaire. WHIM pourrait également s'appliquer à des domaines non artistiques. Par exemple, il pourrait être utilisé par des modérateurs lors de conférences scientifiques pour sonder les participants en leur posant des questions destinées à explorer différentes hypothèses ou cas de figure. L'UE a accordé 1,7 million d'euros de financement au projet WHIM, actif d'octobre 2013 à septembre 2016.

Auteur: Internet

Info:

[ homme-machine ] [ informatique ] [ créativité ]

 

Commentaires: 0

homme-machine

Quand la plupart des gens pensent aux risques potentiels de l'intelligence artificielle et du machine learning, leur esprit va immédiatement vers "Terminator" - cet avenir où les robots, selon une vision dystopique, marcheraient dans les rues en abattant tous les humains sur leur passage.

Mais en réalité, si l'IA a le potentiel de semer le chaos et la discorde, la manière dont cela peut se produire est moins excitante qu'un "Skynet" réel. Les réseaux d'IA qui peuvent créer de fausses images et de fausses vidéos - connues dans l'industrie sous le nom de "deepfakes" - impossibles à distinguer du réel, qui pourraient engendrer des risques.

Qui pourrait oublier cette vidéo du président Obama ? Inventée et produite par un logiciel d'intelligence artificielle, une vidéo quasi impossible à distinguer de vraies images.

Eh bien, dans une récente présentation des capacités de l'IA dans un avenir pas si lointain, un chroniqueur de TechCrunch a mis en avant une étude présentée à une conférence importante de l'industrie en 2017. Les chercheurs y expliquent comment un réseau d'opposition générationnelle (Generative Adversarial Network) - l'une des deux variétés courantes d'opérateur de machine learning - a résisté aux intentions de ses programmeurs et a commencé à produire des cartes synthétiques après avoir reçu l'ordre de faire correspondre des photographies aériennes aux cartes routières correspondantes.

L'objectif de l'étude était de créer un outil permettant d'adapter plus rapidement les images satellites aux cartes routières de Google. Mais au lieu d'apprendre à transformer les images aériennes en cartes, l'opérateur de machine learning a appris à coder les caractéristiques de la carte sur les données visuelles de la carte topographique.

L'objectif était de permettre à l'opérateur d'interpréter les caractéristiques de l'un ou l'autre type de carte et de les faire correspondre aux caractéristiques de l'autre. Mais ce sur quoi l'opérateur était noté (entre autres choses), c'était la proximité de correspondance d'une carte aérienne par rapport à l'original et la clarté de la carte topographique.

Il n'a donc pas appris à faire l'une à partir de l'autre. Il a appris à coder subtilement les caractéristiques de l'une dans les "modèles de bruit" de l'autre. Les détails de la carte aérienne sont secrètement inscrits dans les données visuelles réelles de la carte des rues : des milliers de petits changements de couleur que l'œil humain ne remarquera pas, mais que l'ordinateur peut facilement détecter.

En fait, l'ordinateur est si bon à glisser ces détails dans les plans qu'il a appris à encoder n'importe quelle carte aérienne dans n'importe quel plan de rues ! Il n'a même pas besoin de faire attention à la "vraie" carte routière - toutes les données nécessaires à la reconstitution de la photo aérienne peuvent être superposées sans danger à une carte routière complètement différente, comme l'ont confirmé les chercheurs :

Cette pratique d'encodage des données en images n'est pas nouvelle ; il s'agit d'une science établie appelée stéganographie, et elle est utilisée tout le temps pour, disons, filigraner des images ou ajouter des métadonnées comme les réglages de caméra. Mais un ordinateur qui crée sa propre méthode stéganographique pour éviter d'avoir à apprendre à exécuter la tâche à accomplir c'est plutôt nouveau.

Au lieu de trouver un moyen d'accomplir une tâche qui dépassait ses capacités, l'opérateur de machine learning a développé sa propre méthode pour tricher.

On pourrait facilement prendre cela comme un pas vers l'idée "les machines deviennent plus intelligentes", mais la vérité est que c'est presque le contraire. La machine, qui n'est pas assez intelligente pour faire le travail difficile de convertir ces types d'images sophistiqués les unes avec les autres, a trouvé un moyen de tricher que les humains ont de la peine à détecter. Cela pourrait être évité avec une évaluation plus rigoureuse des résultats de l'opérateur, et il ne fait aucun doute que les chercheurs vont poursuivre dans cette voie.

Et même si ces chercheurs sophistiqués ont failli ne pas le détecter, qu'en est-il de notre capacité à différencier les images authentiques de celles qui fabriquées par simulation informatique ?

Auteur: Internet

Info: Zero Hedges 4 janvier 2018

[ vrai du faux ]

 

Commentaires: 0

Ajouté à la BD par miguel

environnement

A la caisse d'un supermarché, une vieille dame choisit un sac en plastique pour ranger ses achats. La caissière lui reproche de ne pas se mettre à l'écologie et lui dit: - Votre génération ne comprend tout simplement pas le mouvement écologique. Seuls les jeunes vont payer pour la vieille génération qui a gaspillé toutes les ressources !...
La vieille femme s'excuse auprès de la caissière et explique : - Je suis désolée, il n'y avait pas de mouvement écologiste de mon temps.
Alors qu'elle quitte la caisse, la mine déconfite, la caissière ajoute : - Ce sont des gens comme vous qui ont ruiné toutes les ressources à nos dépens.
C'est vrai, vous ne considériez absolument pas la protection de l'environnement dans votre temps...
Alors, un peu énervée, la vieille dame fait observer, qu'à l'époque on retournait les bouteilles de verre consignées au magasin. Le magasin les renvoyait à l'usine pour être lavées, stérilisées et remplies à nouveau : Les bouteilles étaient recyclées, mais on ne connaissait pas le mouvement écologique. Elle ajoute :
De mon temps, on montait l'escalier à pied : on n'avait pas d'escaliers roulants et peu d'ascenseurs. On ne prenait pas sa voiture à chaque fois qu'il fallait se déplacer de deux rues. On marchait jusqu'à l'épicerie du coin. Mais, c'est vrai, on ne connaissait pas le mouvement écologiste.
On ne connaissait pas les couches jetables. On lavait les couches des bébés. On faisait sécher les vêtements dehors sur une corde. On avait un réveil qu'on remontait le soir. Dans la cuisine, on s'activait pour préparer les repas ; on ne disposait pas de tous ces gadgets électriques spécialisés pour tout préparer sans efforts et qui bouffent des watts autant qu'EDF en produit. Quand on emballait des éléments fragiles à envoyer par la poste, on utilisait comme rembourrage du papier journal ou de la ouate, dans des boîtes ayant déjà servi, pas des bulles en mousse de polystyrène ou en plastique. On n'avait pas de tondeuses à essence autopropulsées ou auto portées. On utilisait l'huile de coude pour tondre le gazon. On travaillait physiquement; on n'avait pas besoin d'aller dans un club de gym pour courir sur des tapis roulants qui fonctionnent à l'électricité. Mais, c'est vrai, on ne connaissait pas le mouvement écologiste. On buvait de l'eau à la fontaine quand on avait soif. On n'utilisait pas de tasses ou de bouteilles en plastique à jeter. On remplissait les stylos dans une bouteille d'encre au lieu d'acheter un nouveau stylo. On remplaçait les lames de rasoir au lieu de jeter le rasoir entier après quelques utilisations. Mais, c'est vrai, on ne connaissait pas le mouvement écologiste... Les gens prenaient le bus, le métro, le train et les enfants se rendaient à l'école à vélo ou à pied au lieu d'utiliser la voiture familiale et maman comme un service de taxi 24 H sur 24. Les enfants gardaient le même cartable durant plusieurs années, les cahiers continuaient d'une année sur l'autre, les crayons de couleurs, gommes, taille- crayon et autres accessoires duraient tant qu'ils pouvaient, pas un cartable tous les ans et des cahiers jetés fin juin, de nouveaux crayons et gommes avec un nouveau slogan à chaque rue. Mais, c'est vrai, on ne connaissait pas le mouvement écologique !... On n'avait qu'une prise de courant par pièce, et pas de bande multiprises pour alimenter toute la panoplie des accessoires électriques indispensables aux jeunes d'aujourd'hui.
ALORS VIENS PAS ME FAIRE CHIER AVEC TON MOUVEMENT ECOLOGISTE ! Tout ce qu'on regrette, c'est de ne pas avoir eu assez tôt la pilule, pour éviter d'engendrer la génération des jeunes cons comme vous, qui s'imagine avoir tout inventé, à commencer par le travail, qui ne savent pas écrire 10 lignes sans faire 20 fautes d'orthographe, qui n'ont jamais ouvert un bouquin autre que des bandes dessinées, qui ne savent pas qui a écrit le Boléro de Ravel... (et pensent même que c'est un grand couturier), qui ne savent pas mieux où passe le Danube quand on leur propose Vienne ou Athènes, etc. mais qui croient tout de même pouvoir donner des leçons aux autres,du haut de leur ignorance crasse ! MERDE à la fin !

Auteur: Internet

Info:

[ évolution ] [ humour ]

 

Commentaires: 0

sciences

Notre intelligence s'exprime différemment de celle des générations précédentes.
Des tests d'intelligence qui donnaient des résultats moyens de 100 points dans les années 60 donnent aujourd'hui des résultats de 120. C'est ce que les spécialistes de l'intelligence appellent l'effet Flynn, du nom du politologue néo-zélandais James Richard Flynn, qui a remarqué, à la fin des années 70, une progression de trois à cinq points du quotient intellectuel (QI) par décennie. Le phénomène se serait poursuivi depuis, selon plusieurs autres études.
Les nouvelles générations ne sont pas plus intelligentes que les précédentes, Serge Larivée, professeur à l'École de psychoéducation de l'Université de Montréal nous dit : "Si c'était le cas, souligne-t-il, cela voudrait dire que la génération de nos grands-parents était constituée en grande partie de déficients intellectuels, ce qui est insensé aux yeux de l'histoire."
Dans un texte qui vient de paraitre dans la revue L'année psychologique, le professeur analyse avec ses collègues Carole Sénéchal (Université d'Ottawa) et Pierre Audy (UdeM) les paradoxes de l'effet Flynn.
Les différents chercheurs qui se sont penchés sur l'effet Flynn en ont attribué la cause à des facteurs culturels plutôt qu'à des changements d'ordre génétique. Parmi ces facteurs, mentionnons une scolarisation plus précoce et plus étendue, une plus grande familiarité avec les tests d'intelligence, l'urbanisation et l'industrialisation, les changements dans les attitudes parentales, l'amélioration de la santé grâce à de meilleurs soins et à une alimentation plus équilibrée ainsi que la prolifération de médias visuels de plus en plus complexes.
Mais ce n'est pas dans tous les types de tests d'intelligence que s'observe l'effet Flynn. L'effet est plus fort dans les habiletés visuospatiales (mesurées par les matrices de Raven) et dans les compétences logiques (mesurées par les échelles de Weschler), alors qu'il est plutôt faible dans les performances verbales et mathématiques.
"Nous serions plus doués que nos ancêtres quant au raisonnement abstrait et aux aptitudes visuospatiales, sans les dépasser pour autant dans d'autres aspects de l'intelligence", écrivent les auteurs dans une version vulgarisée de leur texte paru dans la revue Sciences humaines d'octobre dernier. Ce serait donc ces compétences visuelles et de logique qui seraient davantage sollicitées et développées par notre environnement culturel d'une complexité croissante. Autrement dit, notre intelligence s'exprime différemment sans que nous soyons nécessairement plus intelligents que les générations précédentes. Nos arrière-grands-parents avaient une intelligence plus pratique, nous avons une intelligence plus abstraite.
Mais cette explication qui attribue le développement du QI à des éléments culturels ne contredit-elle pas les études, notamment réalisées auprès de jumeaux identiques, qui imputent une bonne part du QI à la génétique?
La réponse à ce paradoxe est fort simple: les gènes ne produisent leur effet qu'à la faveur d'un environnement propice à leur actualisation. Ainsi, une personne qui dispose d'un avantage génétique relativement à une habileté particulière va rechercher un environnement stimulant où son potentiel génétique va pouvoir s'exprimer. Selon les chercheurs, l'effet multiplicateur qui s'ensuit est un facteur probable de l'effet Flynn.
L'effet Flynn n'est pas ailleurs pas illimité. "Deux parents qui ont des quotients intellectuels élevés n'engendreront pas un enfant attardé, mais la probabilité qu'ils aient un enfant doté d'un QI aussi élevé qu'eux est plutôt faible", affirme Larivée. Il y aurait ainsi un retour à la normale.
La théorie de l'effet combiné des gènes et de l'environnement nous dit aussi qu'un plateau est atteint lorsque l'environnement a livré tout son effet stimulant. On assiste d'ailleurs à une stabilisation du QI dans certains pays développés où les scores sont parmi les plus hauts. Des études montrent un ralentissement de la tendance, voire une stagnation, au Danemark et en Suède, alors que d'autres concluent même à un léger déclin en Angleterre et dans d'autres pays industrialisés.
Dans les pays où le QI moyen continue de croitre, c'est surtout au sein des classes les plus défavorisées qu'on observe une remontée. Serge Larivée y voit l'effet d'une éducation de qualité maintenant accessible à tous.
Si l'effet Flynn a atteint ses limites dans les pays développés, il commence à se faire sentir dans les pays en voie de développement, notamment dans certains pays africains comme le Kenya et le Soudan.
Pour le professeur, il s'agit de bonnes nouvelles. "Cela signifie que l'écart entre les plus doués et les moins doués s'amincit, de même qu'il se réduit entre les pays riches et les pays pauvres. Cela signifie aussi qu'un environnement stimulant peut bénéficier aux plus démunis.

Auteur: Baril Daniel

Info: fév. 2013

[ anthropologie ] [ société ] [ évolution ] [ descendances ]

 

Commentaires: 0

théorie du tout

Une nouvelle "loi de la nature" qui englobe le vivant, les planètes et les étoiles

(Photo) Ammonite irisée trouvée près de Calgary, Canada. La diversité biologique (biodiversité) entraîne la diversité minérale, et vice versa.


Selon une équipe composée de scientifiques et de philosophes, la théorie de l'évolution formulée par Charles Darwin au 19e siècle n'est qu'un "cas particulier" d'une loi de la nature qui engloberait le vivant mais aussi les minéraux, les planètes et les étoiles. Attention, débats en perspective !

Et si l'évolution ne se limitait pas à la vie sur Terre ? C'est ce que suggère une équipe de neuf scientifiques et philosophes américains dirigés par la Carnegie Institution for Science, à travers un nouvel article publié dans la revue Proceedings of the National Academy of Sciences.

La publication énonce la "loi de l'augmentation de l'information fonctionnelle", selon laquelle tous les "systèmes naturels complexes" – qu'il s'agisse de la vie sur Terre ou des atomes, des minéraux, des planètes et des étoiles – évoluent vers des états "plus structurés, plus diversifiés et plus complexes".

Vivant, atomes, étoiles…

Concrètement, qu'est-ce que cela signifie ? Juste avant d'en venir aux exemples, il faut définir en quelques mots ce que les auteurs entendent par "évolution". Un terme qu'il faut ici comprendre comme "sélection pour la fonction". Restez concentré, c'est tout simple !

Si le naturaliste du 19e siècle Charles Darwin avait globalement assimilé la "fonction" à la survie des êtres, c'est-à-dire à la capacité de vivre assez longtemps pour produire une progéniture fertile, les auteurs vont plus loin en reconnaissant également comme fonctions la "stabilité" (capacité à perdurer) et la "nouveauté" (nouvelles configurations).

Pour illustrer la sélection de la "nouveauté", l'article évoque à la fois des cas qui concernent le vivant, à l'instar de la photosynthèse, de la vie multicellulaire (quand les cellules ont "appris" à coopérer jusqu'à ne former plus qu'un organisme) et des comportements animaux. Mais aussi des exemples au sein du règne minéral !

Ainsi, les minéraux de la Terre, qui étaient au nombre d'une vingtaine à l'aube de notre système solaire, sont aujourd'hui près de 6 000. Et c'est à partir de seulement deux éléments majeurs – l'hydrogène et l'hélium – que se sont constituées, peu après le big bang, les premières étoiles, au sein desquelles se sont ensuite formés une vingtaine d'éléments chimiques plus lourds, avant que la génération suivante d'étoiles ne s'appuie sur cette diversité initiale pour produire près d'une centaine d'autres éléments.

"L'évolution est partout"

"Charles Darwin a décrit avec éloquence la façon dont les plantes et les animaux évoluent par sélection naturelle, avec de nombreuses variations et caractéristiques des individus et de nombreuses configurations différentes. Nous soutenons que la théorie darwinienne n'est qu'un cas très particulier et très important au sein d'un phénomène naturel beaucoup plus vaste", résume dans un communiqué le Pr Robert M. Hazen, de Carnegie, qui a supervisé les travaux.

Et son collègue Michael L. Wong, astrobiologiste à Carnegie et premier auteur de l'étude, de compléter : "l'univers génère de nouvelles combinaisons d'atomes, de molécules, de cellules, etc. Les combinaisons qui sont stables et qui peuvent engendrer encore plus de nouveauté continueront à évoluer."

"C'est ce qui fait de la vie l'exemple le plus frappant de l'évolution, mais l'évolution est partout."

Cette nouvelle "loi de la nature" qui décrit une complexité croissante n'est pas sans en rappeler une autre : le deuxième principe de la thermodynamique. Celui-ci stipule en effet que "l'entropie" (autrement dit, le désordre) d'un système isolé augmente avec le temps – raison pour laquelle la chaleur circule toujours des objets les plus chauds vers les objets les plus froids.

Discussion ouverte

Forces et mouvement, gravité, électromagnétisme, énergie… La plupart des "lois de la nature", décrivant et expliquant les phénomènes observés en permanence dans le monde naturel, ont été énoncées il y a plus de 150 ans.

Nul doute que la nouvelle "loi de la nature" énoncée par l'équipe américaine – formée de trois philosophes des sciences, de deux astrobiologistes, d'un spécialiste des données, d'un minéralogiste et d'un physicien théorique – suscitera moult réactions au sein de la communauté scientifique.

"À ce stade du développement de ces idées, un peu comme les premiers concepts au milieu du 19e siècle pour comprendre "l'énergie" et "l'entropie", une discussion ouverte et large est maintenant essentielle", a d'ailleurs commenté dans le communiqué Stuart Kauffman, chercheur à l'Institut de biologie des systèmes (Seattle).

Pour rappel, une théorie n'est "scientifique" que si les principes qui la constituent conduisent à au moins une prédiction suffisamment précise pour pouvoir être testée par une expérience (ou une mesure) susceptible de la réfuter…

Auteur: Internet

Info: https://www.geo.fr, Nastasia Michaels, 16/10/2023

[ panthéisme ] [ panpsychisme ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel

positivisme

La science-fiction propose enfin des futurs désirables

La science-fiction ne produit pas que des romans catastrophistes. De plus en plus d’auteurs et autrices renouent avec l’utopie et imaginent des avenirs heureux. Une bouffée d’air.

Un autre monde est possible… Oui, mais à quoi ressemble-t-il ? Inventer des avenirs heureux sans pétrole, dessiner un futur post-effondrement désirable : la tâche paraît ardue, tant l’époque nous a plongés dans l’apathie. " Les gens ont peur, ils n’arrivent plus à imaginer l’avenir ", constate l’écrivaine Catherine Dufour.

" There is no alternative " assénait Margaret Thatcher, Première ministre du Royaume-Uni. Depuis quarante ans, le fatalisme semble s’être insidieusement diffusé dans nos esprits. Pire, il nous paralyse. " La résignation présentée comme seule position réaliste face à un présent trop complexe est une arme au service du maintien de l’ordre ", rappelait la journaliste Évelyne Pieiller dans un article du Monde diplomatique.

Pourtant, à l’aune de la crise écologique, un nouveau mot d’ordre commence à essaimer : " Il faut désincarcérer le futur, martèle Catherine Dufour. Rouvrir les possibles, remettre en marche nos neurones d’optimisme. " Et pour l’autrice, pas de doute : " La science-fiction (SF) a un rôle essentiel à jouer, pour donner des pistes, des voies d’espoir collectif. "

Longtemps associé au catastrophisme, le genre littéraire connaît ainsi " un renouveau des utopies vertes ", selon l’auteur Ugo Bellagamba. Renouveau ? Aux origines de la science-fiction, " les utopies du XVIe siècle portaient déjà l’idée d’un avenir conditionné au respect de la nature, souligne-t-il. La question écologique a ainsi, d’une certaine manière, toujours été présente ".

Autogestion, femmes au pouvoir, sobriété...

Après-guerre, à contre-courant d’un flot de dystopies — en particulier Soleil vert, paru en 1966 —, quelques écrivains esquissaient déjà des chemins de traverse. En 1974, Ursula Le Guin exposait, dans Les Dépossédés, un monde anarchiste fondé sur la liberté absolue et la coopération. Un an plus tard, en 1975, Écotopia, récit utopique d’Ernest Callenbach, décrivait une société écologique radicale — femmes au pouvoir, autogestion, semaine de 22 heures.

Malgré ces rares pépites, la mode littéraire a toujours été à l’apocalypse. " La science-fiction aime la catastrophe ", remarque Ugo Bellagamba. La catastrophe… et la technologie. " La SF du XXIe siècle tourne désespérément autour des “trois piliers” du transhumanisme ; immortalité, biotechnologies et intelligence artificielle ", analysait ainsi Catherine Dufour dans un article du Monde diplomatique.

Mais la tendance pourrait s’inverser. Face au mur climatique — " parce que le pessimisme est un luxe qu’on ne peut plus de permettre ", selon Catherine Dufour — un courant émerge : le solarpunk. " De plus en plus de romans renouvellent l’imaginaire utopiste, autour de deux idées phares, la sobriété (technologique, énergétique) et la fin du capitalisme ", décrit Ugo Bellagamba. Outre-Atlantique, Kim Stanley Robinson, auteur du remarquable Ministère du futur, et Becky Chambers figurent parmi les têtes de proue de ce mouvement.

En France, la mayonnaise utopiste prend lentement. La maison d’édition La Volte a créé une collection, Eutopia, pour porter ces nouveaux récits. " Mais on ne publie qu’un livre par an, regrette son éditeur, Mathias Echenay. Même si la question travaille les autrices et auteurs, on reçoit encore très peu de propositions abouties. "

La faute, selon lui, à la difficulté d’écrire des utopies : " Faire une histoire dans un monde où tout se passe bien, on ne sait pas comment faire ", illustre-t-il. " Une histoire, c’est intéressant quand ça déraille », sourit Joëlle Wintrebert, pionnière de la SF à la française. Un de ses romans, Pollen, raconte ainsi une société matriarche et pacifiste, mais qui repose sur la reproduction maîtrisée génétiquement. " L’utopie, c’est toujours ambigu… Un monde parfait, ça n’existe pas ", dit l’écrivaine.

La faute, aussi, à nos imaginaires trop limités ? Pour l’écrivain Elio Possoz, la SF post-capitaliste se heurte à deux murs, politique — quel système concevoir autre qu’une dictature  ? — et technique. Renoncer à la technologie, penser un monde sans électricité… " Ce sont encore des impensés. " Le trentenaire vient de finir un roman (à paraître l’an prochain chez La Volte) qui décrit un road trip dans une France post-pétrole parsemée de " communats ", des zones autonomes et autogérées. 

S’approprier les futurs

Low-tech, vélo solaire et anarchie : tout ça fait rêver, mais comment passer des écrits aux actes " Ces récits permettent de faire vivre aux lecteurs d’autres possibles, de les toucher, par le sensible, et donc de les familiariser avec ce qui pourrait advenir ", estime Mathias Echenay. C’est ainsi que des scientifiques du Giec ont sollicité des écrivains et écrivaines afin de produire " des récits pour nous approprier les futurs " décrits dans leurs rapports. Le résultat, No(s) Futur(s), paru en 2020, permet d’" imaginer les possibles du changement climatique ".

Les plus intéressés par ces collaborations littéraires sont à chercher du côté des armées. Dès 2016, un des départements de l’armée de terre des États-Unis a lancé son propre concours de nouvelles de science-fiction, pour façonner leur future stratégie militaire. Constituée en 2019 dans l’Hexagone, la Red team regroupe auteurs et experts militaires en vue d’" anticiper les aspects technologiques, économiques, sociétaux et environnementaux de l’avenir qui pourraient engendrer des potentiels de conflictualités à horizon 2030-2060 ".

À quand une Red team au ministère de la Santé ou de l’Écologie, s’interroge Ugo Bellagamba. Les politiques ont encore du mal à saisir l’intérêt de la SF pour ouvrir les possibles. " Sans prendre toute fiction pour argent comptant, auteurs et éditeurs espèrent ainsi que leurs ouvrages participeront à " casser le récit dominant ", selon les propos de Mathias Echenay. Comme le disait Alain Damasio, " la lutte des imaginaires " fait partie des moyens pour " battre le capitalisme sur le terrain du désir "

Auteur: Lavocat Lorène

Info:

[ littérature ] [ malheur nécessaire ] [ incubateur ] [ nurserie ] [ prévoir ] [ adaptation ] [ créativité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

infobésité éparpillante

Comment notre cerveau compense les distractions numériques

Téléphone, mails, notifications... Opposé à toutes les sollicitations auxquelles nous sommes confrontés, le cerveau tente tant bien que mal de rester concentré. Voici comment.

Aujourd'hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d'un supérieur et l'appel de l'école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s'imposer encore davantage avec la multiplication des objets connectés dans les futures " maisons intelligentes ".

Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 3% à 27% du temps d'exécution de l'activité en cours.

En tant que chercheuse en psychologie cognitive, j'étudie les coûts cognitifs de ces interruptions numériques: augmentation du niveau de stress, augmentation du sentiment d'épuisement moral et physique, niveau de fatigue, pouvant contribuer à l'émergence de risques psychosociaux voire du burn-out.

Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d'études souligne qu'il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s'inquiéter des interruptions numériques?

L'intégration d'objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance, par exemple. En 2021, les taux de pénétration des maisons connectées (c'est-à-dire, le nombre de foyers équipés d'au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d'environ 13% dans l'Union européenne et de 17% en France (contre 10,7% en 2018).

Si la facilité d'utilisation et l'utilité perçue des objets connectés ont un impact sur l'acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c'est-à-dire l'ensemble des processus liés à la perception, l'attention, la mémoire, la compréhension, etc.

L'impact des interruptions numériques peut s'observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d'une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1h30 par jour à récupérer des interruptions liées aux courriels. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu'un sentiment de frustration, voire d'épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60% déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l'on pourrait penser.

Mieux comprendre d'où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d'œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d'adapter notre comportement et de réaliser l'action appropriée: le cerveau met en place des boucles prédictives et d'anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d'attention et de concentration émerge: celui de la fluence de traitement. Il s'agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l'information.

Le concept de fluence formalise quelque chose que l'on comprend bien intuitivement: notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est " motivée " par une croyance qu'il formule a priori sur la facilité ou la difficulté d'une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s'adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l'information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu'un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l'attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudo-mots, des mots inventés par les scientifiques tels que " HENSION ", notamment lorsqu'on leur demandait de ne pas lire les mots présentés à l'écran.

Ainsi, une de nos études a montré que la fluence –la facilité perçue d'une tâche– guide l'attention des participants vers ce que leur cerveau prédit. L'étude consistait à comprendre comment la prévisibilité des mots allait influencer l'attention des participants. Les participants devaient lire des phrases incomplètes, puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l'attention des participants que les mots incohérents.

Il semblerait qu'un événement cohérent avec la situation en cours attire plus l'attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l'une des premières à montrer que la fluence de traitement a un effet sur l'attention. D'autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été lancé, mais n'a pas pu aboutir dans le contexte de la pandémie de Covid-19.

Comme nous l'avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l'environnement n'est pas conforme à ce que notre cerveau avait prévu, nous devons d'une part adapter nos actions (souvent alors qu'on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l'événement imprévu afin d'adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu'elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut).

Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d'adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle: on dit qu'il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu'elles soient numériques ou non, ne sont pas prévues par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c'est-à-dire qu'elle contredit ce que le cerveau avait envisagé et préparé.

L'interruption a des conséquences au niveau comportemental et cognitif: arrêt de l'activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

À quel moment notre cerveau est-il le plus performant?

La rupture de fluence déclenche automatiquement la mise en place de stratégies d'adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l'attention et déclenche un processus de recherche de la cause de la rupture. Lors d'une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d'anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence: la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d'où va provenir l'interruption (le téléphone dans sa poche ou la boîte mail sur l'ordinateur) ni ce que sera le contenu de l'information (l'école des enfants, un démarchage téléphonique, etc.).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d'utiliser les technologies de façon consciente et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple, la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple, le mode silencieux du téléphone ou le mode " focus " de logiciels de traitement de texte), ou même l'adoption de technologies intelligentes qui favorisent activement la concentration en minimisant les distractions dans l'environnement.

En fin de compte, l'évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet " Habitat urbain en transition " (HUT) pour lequel j'ai travaillé dans le cadre de mon postdoctorat.

De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l'hyperconnexion des habitations, des usages et du bien-être, au sein d'un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l'impact des technologies au sein d'un habitat connecté afin d'en prévenir les dérives. 

Auteur: Cases Anne-Sophie

Info: https://www.slate.fr/ - 18 avril 2024,  avec Sibylle Turo

[ déconcentration ]

 

Commentaires: 0

Ajouté à la BD par miguel

intrications

Vers une science de la complexité
La physique quantique n’est pas une théorie de l’univers ; elle n’est qu’un formalisme génial qui permet d’abandonner les vieilles notions simplistes d’objet physique et de force physique, au centre de la physique de Galilée, Newton et Einstein, pour migrer vers les notions plus riches et plus souples de fonctions d’état (que l’on continue d’appeler, à tort, fonctions d’onde) et d’opérateurs. Il n’y a plus d’objet (ni d’onde, ni de particule, ni rien) : il y a un processus qui, à un moment donné, est décrit par une fonction d’état. Cette fonction évolue dans le temps. Faire une mesure (une observation quantifiée) consiste à appliquer à cette fonction d’état un opérateur qui spécifie la mesure que l’on fait, mais qui, en retour, modifie la fonction d’état. Ce formalisme ne dit rien de l’évolution réelle du Réel. Il permet seulement, dans certains cas, de prédire le résultat d’une mesure spécifique sur le Réel.

Le piège relativiste et le piège quantique.
Pour le dire en suivant Niels Bohr, la physique quantique n’est pas une ontologie : elle ne dit rien du Réel, mais explicite seulement certains de nos rapports avec le Réel. Ceci résume d’un mot la célèbre controverse entre ces deux Juifs géniaux que furent Einstein et Bohr. Einstein voulait fonder une ontologie post-newtonienne ("Connaître la pensée de Dieu"), alors que Bohr ne voulait que développer une phénoménologie opératoire et avait renoncé, dans une posture typiquement kantienne, à toute forme d’ontologie ("Ne dites pas à Dieu ce qu’Il doit faire").

Le problème, tel qu’il se présente aujourd’hui, se résume à ceci. L’ontologie relativiste, parce qu’elle n’a pas su quitter le mécanicisme déterministe et analytique des modernes, aboutit à des impasses monstrueuses qui, pour sauver le modèle, appellent des hypothèses de plus en plus invraisemblables et abracadabrantesques. Quant à la phénoménologie quantique, si elle se cantonne à demeurer une pure phénoménologie, elle se réduit à une technique mathématique plus ou moins efficiente dans les cas les plus simples et elle n’est guère satisfaisante pour l’esprit qui, toujours, a soif d’ontologie ; mais, si elle se laisse tenter à se prendre pour une ontologie (ce qui est de plus en plus souvent le cas, surtout en physique des hautes énergies et des "particules" élémentaires), elle aboutit à des absurdités logiques, et des "théories" fumeuses (comme la supersymétrie, les cordes, etc.) tentent en vain de masquer les inconsistances.

Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Notre époque appelle à refonder radicalement une nouvelle ontologie qui devra prendre garde à éviter, à la fois, le piège relativiste (l’ontologie mécaniciste) et le piège quantique (la phénoménologie subjectiviste). La physique complexe est la seule voie connue actuellement qui puisse tenter de relever ce défi. Mais les institutions physiciennes en place veillent à ne pas laisser saccager leur fonds de commerce. Nous sommes au seuil de ce que Thomas Kuhn appela une "mutation paradigmatique" majeure dans le monde de la science fondamentale. Spiritualité et physique sont en train de converger.

Les sciences modernes.
Toutes les sciences modernes se sont construites à partir du refus de la Renaissance de continuer le paradigme aristotélicien d’un univers organiciste, finaliste, géocentrique, limité, divisé en monde céleste et en monde sublunaire et dirigé par le principe de l’harmonie des sphères. Parmi les premiers, Galilée et Descartes éradiquèrent ce paradigme aristotélicien et le remplacèrent par un paradigme platonicien (donc pythagoricien et atomiste) qui allait devenir le moteur de la pensée entre 1500 et 2000. Ce paradigme moderne repose tout entier sur le mécanicisme. Plongé dans un espace et un temps infinis, l’univers serait un assemblage de briques élémentaires appelées "atomes", interagissant entre eux au moyen de forces élémentaires partout les mêmes (un univers isotrope) et parfaitement quantifiables (un univers mathématique) où tout effet a une cause et où cause et effet sont proportionnés selon des rapports mesurables et permanents, soumis à des lois mathématiques éternelles. Le hasard y joue le rôle central de moteur des évolutions.

Cette vision du monde fut fructueuse et permit de grandes avancées, dont les très nombreuses retombées techniques ont radicalement transformé le monde des hommes et leur ont permis, dans bien des cas, de les libérer des contraintes "naturelles" qui pesaient sur eux. Cependant, les sciences modernes, dès la fin du XIXe siècle, mais surtout depuis 1950, se sont heurtées, partout, au "mur de la complexité".

Le mur de la complexité.
Ce "mur de la complexité" a fait prendre conscience que certains systèmes où le nombre des ingrédients et les densités d’interaction entre eux étaient très grands ne pouvaient plus être compris selon le paradigme mécaniste : ils ne sont pas que des assemblages d’élémentaires, car leur tout est irréductible à la simple somme de leurs parties ; là s’observent des propriétés émergentes qui n’appartiennent à aucun des ingrédients impliqués et qui surgissent sans cause particulière, comme solution globale à un problème global. Aristote ressuscite, et les traditions indiennes et chinoises viennent à sa rescousse…

Ce fut la thermodynamique qui, la première, osa les questions de fond dont la toute première, résolument contradictoire avec les sciences mécanistes, fut celle de l’irréversibilité ; celle de la flèche du temps, celle du Devenir en lieu et place de l’Etre. L’univers réel n’est pas une machine mécanique réversible, soumise à des lois mécaniques prédictibles.

Pour le dire autrement, les sciences classiques font des merveilles pourvu que les systèmes auxquels elles s’intéressent soient d’un niveau de complexité très bas. Alors, l’approximation mécaniste peut être efficace et donne de bons résultats, parfois spectaculaires (il est plus facile d’envoyer une fusée sur Mars que de modéliser la préparation d’un bon cassoulet). Après la thermodynamique, les sciences de la vie et l’étude des sociétés vivantes ont bien dû constater que le "mur de la complexité" était, pour elles aussi, infranchissable si elles restaient à l’intérieur du paradigme mécaniste. Disons-le tout cru : la Vie n’est pas réductible à la Matière, ni la Pensée à la Vie… On commence maintenant à comprendre que même la Matière n’est réductible ni à elle-même, ni à de l’énergie pure. Au fond : rien n’est réductible à rien. Tout ce qui existe n’existe que par soi et pour soi ; c’est l’émergence locale d’un flux cosmique de devenir. Mais tout ce qui existe est aussi partie prenante d’un tout plus grand qui l’englobe… Et tout ce qui existe est, en même temps, le résultat des interactions infinies entre les ingrédients multiples qui le constituent en interagissant entre eux. Rien de ce qui existe n’est un assemblage construit "de l’extérieur", mais bien plutôt quelque chose qui "pousse de l’intérieur".

Cette dernière remarque permet d’alimenter une réflexion de fond. Nous avons pris l’habitude de parler et de penser en termes d’objets : cette table, ce chien, ce nuage, etc. Et il nous semble naturel de faire de ces mots les images de ce qui existe, en leur gardant une atemporalité abstraite et idéalisante qui ne correspond à rien de réel. Cette table, ce chien et ce nuage auront changé – un peu, beaucoup, énormément – dans trois minutes, dans trois jours, dans trois ans, etc. Rien n’est permanent dans le réel, même si nos habitudes de pensée, par l’usage de mots figés et abstraits, alimentent notre illusion que tout reste "fondamentalement" identique à soi. Ce qui est notoirement faux.

Tout cela relève d’un débat métaphysique qui n’a pas vraiment sa place ici. Disons seulement que la philosophie occidentale est obsédée par la notion d’un Etre immuable qui se cacherait "derrière" les accidents et évolutions de tout ce qui existe. Le pensée complexe prend l’exact contre-pied de cette croyance. Il n’y a pas d’Etre ; tout est processus. Ce chien appelé "Médor" est l’image, ici et maintenant, d’un processus canin particulier (un individu chien singulier) qui exprime un processus canin global (une lignée canine remontant à des ancêtres chacals, loups et renards) qui, à son tour, est un mode particulier d’expression du processus Vie sur notre petite Terre. Et cette terre elle-même constitue un processus planétaire, lié au processus solaire, lié au processus d’une galaxie parmi d’autres, appelée "voie lactée". Le processus chien appelé "Médor" est la résultante de milliards de processus cellulaires qui furent tous déclenchés par la rencontre d’un ovule fertile et d’un spermatozoïde.

Les mots s’arrêtent à la surface des choses.
Ce que nos mots appellent un "objet" n’est que la photographie extérieure et instantanée d’un processus qui a commencé, comme tout le reste, avec le big-bang. Il n’y a au fond qu’un seul processus unique : le cosmos pris comme un tout. Ce processus cosmique engendre des processus particuliers, de plus en plus complexes, de plus en plus intriqués les uns aux autres, qui sont autant de processus émergeants. Nous appelons "objet" la surface extérieure apparente d’un processus volumique intérieur qui engendre cette surface. Cette surface objectale n’est que l’emballage apparent de la réalité processuelle sous-jacente.

Les mots s’arrêtent à la surface des choses, à leur apparence, que notre mental débarrasse de tout ce qui change pour n’en garder que les caractéristiques atemporelles qui ne changent pas ou peu. Médor est ce chien qui est un berger noir et feu, couché là au soleil, avec quatre pattes, une queue touffue, une truffe noire, deux yeux pétillants, deux oreilles dressées, etc. "Médor" désigne l’ensemble de ces caractéristiques objectales censées être temporairement permanentes. Mais, en fait, "Médor" désigne l’entrelacs de milliers de milliards de processus cellulaires intriqués et corrélés, fédérés par l’intention commune de survivre le mieux possible, dans un environnement peu maîtrisé mais globalement favorable, appelé domesticité.

La méthode analytique, mise à l’honneur par René Descartes, part d’un principe parfaitement arbitraire – et qui se révèlera faux – que le tout est l’exacte somme de ses parties. Que pour comprendre un système, il "suffit" de le démonter en ses constituants, puis ceux-ci en les leurs, et ainsi de suite, pour atteindre les élémentaires constitutifs du tout et les comprendre, pour, ensuite, les remonter, étage par étage, afin d’obtenir "logiquement" la compréhension du tout par la compréhension de chacune de ses parties. On trouve là le fondement ultime du mécanicisme qui fait de tout, à l’instar de la machine, un assemblage de parties ayant et gardant une identité propre irréfragable. Le piston et la soupape sont piston et soupape qu’ils soient, ou non, montés ensemble ou démontés séparément.

Tout l’analycisme repose sur cette hypothèse largement fausse que les interactions entre éléments n’altèrent pas la nature de ces éléments. Ils restent intègres et identifiables qu’il y ait, ou non, des interactions avec d’autres "objets". Encore une fois, l’analycisme est une approche qui n’est jouable que pour les systèmes rudimentaires où l’hypothèse mécaniste est approximativement acceptable, c’est-à-dire à des niveaux de complexité ridiculement bas.

Un bon exemple de système complexe "simple" où le principe d’analycité est mis à mal est la mayonnaise. Rien de plus simple, en effet : trois ingrédients et un battage à bonne température. Une fois que la réaction d’émulsion s’est enclenchée et que la mayonnaise a pris, on ne pourra pas la faire "déprendre", même en battant le tout en sens inverse. Il y a là une irréversibilité liée aux relations émulsives qui unissent entre elles, selon des schémas complexes, des milliards de molécules organiques intriquées les unes aux autres par des ponts "hydrogène", des forces de van der Waals, des quasi-cristallisations, etc. Dans l’émulsion "mayonnaise", il n’y a plus de molécules d’huile, de molécules de jaune d’œuf, etc. Il y a un tout inextricablement corrélé et intriqué, un magma biochimique où plus aucune molécule ne garde sa propre identité. Le tout a absorbé les particularités constitutives des parties pour engendrer, par émergence, quelque chose de neuf appelé "mayonnaise" qui est tout sauf un assemblage de molécules distinctes.

Un autre exemple typique est fourni par les modèle "en goutte liquide" des noyaux atomiques. Le noyau d’hélium n’est pas un assemblage de deux protons et de deux neutrons (comme le neutron n’est pas un assemblage d’un proton avec un électron avec quelques bricoles de plus). Un noyau d’hélium est une entité unitaire, unique et unitive que l’on peut engendrer en faisant se télescoper violemment nos quatre nucléons. Ceux-ci, une fois entrés en interaction forte, constituent un objet à part entière où plus aucun neutron ou proton n’existe comme tel. Si l’on percute ce noyau d’hélium avec suffisamment de violence, il peut se faire qu’il vole en éclat et que ces fragments, après un très court temps d’instabilité, reconstituent protons et neutrons. Cela donne l’illusion que ces protons et neutrons seraient restés entiers au sein du noyau. Il n’en est rien.

Un système devient d’autant plus complexe que la puissance des interactions en son sein transforme radicalement la nature et l’identité des ingrédients qui y interviennent. De là, deux conséquences majeures. Primo : un système vraiment complexe est un tout sans parties distinctes discernables, qui se comporte et évolue comme un tout unique, sans composant. Les méthodes analytiques y sont donc inopérantes. Secundo : lorsqu’on tente de "démonter" un système vraiment complexe, comme le préconise Descartes, on le tue purement et simplement, pour la bonne raison qu’en le "démontant", on détruit les interactions qui en constituent l’essentiel.

Le processus d’émergence.
Tout ce qui existe pousse "du dedans" et rien n’est assemblé "du dehors". Tout ce qui existe est le développement, par prolifération interne, d’un germe initial (que ce soit un nuage, un flocon de neige, un cristal, un brin d’herbe, un arbre, une méduse, un chien ou un être humain). Rien dans la Nature n’est assemblé comme le seraient les diverses pièces usinées d’un moteur d’automobile. Seuls les artéfacts humains sont des produits d’assemblage qui appellent deux éléments n’existant pas dans le Nature : des pièces usinées préfabriquées et un ouvrier ou robot monteur. Dans la nature, il n’existe pas de pièces préfabriquées exactement selon le plan de montage. Il n’y a d’ailleurs aucun plan de montage. La Nature procède par émergence, et non pas par assemblage.

Le processus d’émergence se nourrit des matériaux qu’il trouve à son contact. Il n’y a pas de plan préconçu et, souvent, la solution trouvée naturellement est approximative et imprécise ; l’à-peu-près est acceptable dans la Nature. Par exemple, il est bien rare qu’un cristal naturel soit exempt d’anomalies, de disruptions, d’anisotropies, d’inhomogénéité, etc.

Si l’on veut bien récapituler, au contraire des procédés d’assemblage des artefacts humains, les processus d’émergence qui forgent tout ce qui existe dans la Nature ne connaissent ni plan de montage, ni pièces préfabriquées, ni ouvrier monteur, ni outillage externe, ni banc d’essai. Tout s’y fait de proche en proche, par essais et erreurs, avec les matériaux qui sont là. C’est d’ailleurs la présence dense des matériaux utiles qui, le plus souvent, sera le déclencheur d’un processus d’émergence. C’est parce qu’une solution est sursaturée qu’un processus de cristallisation pourra se mettre en marche autour d’un germe – souvent hétérogène, d’ailleurs – ; c’est un petit grain de poussière, présent dans un nuage sursaturé et glacial, qui permettra au flocon de neige de se développer et de produire ses fascinantes et fragiles géométries.

Le cerveau humain est autre chose qu’un ordinateur.
Il en va de même dans le milieu humain, où les relations se tissent au gré des rencontres, selon des affinités parfois mystérieuses ; un groupe organisé peut émerger de ces rencontres assez fortuites. Des organisations pourront se mettre en place. Les relations entre les humains pourront rester lâches et distantes, mais des processus quasi fusionnels pourront aussi s’enclencher autour d’une passion commune, par exemple autour d’un projet motivant ou autour d’une nécessité locale de survie collective, etc. La vie quotidienne regorge de telles émergences humaines. Notamment, l’émergence d’une rumeur, d’un buzz comme on dit aujourd’hui, comme celle d’Orléans qu’a étudiée Edgar en 1969 : il s’agit d’un bel exemple, typique d’un processus d’émergence informationnelle qu’aucune technique analytique ou mécanique ne permet de démanteler.

L’assemblage et l’émergence ne participent pas du tout de la même logique. Essayer de comprendre une logique d’émergence au moyen d’une analogie assembliste, est voué à l’échec. Ainsi, toutes les fausses analogies entre le fonctionnement assembliste ou programmatique d’un ordinateur et le fonctionnement émergentiste de la pensée dans un cerveau humain sont définitivement stériles. De façon symétrique, il est absurde de rêver d’un arbre, produit d’on ne sait quelles vastes mutations génétiques, dont les fruits seraient des automobiles toutes faites, pendant au bout de ses branches.

Parce que l’assemblisme est une démarche additive et programmatique, les mathématiques peuvent y réussir des merveilles de modélisation. En revanche, l’émergentisme n’est pas mathématisable puisqu’il n’est en rien ni additif, ni programmatique ; c’est probablement la raison profonde pour laquelle les sciences classiques ne s’y intéressent pas. Pourtant, tout ce qui existe dans l’univers est le fruit d’une émergence !

L’illusion du principe de causalité.
Toute la physique classique et, derrière elle, une bonne part de la pensée occidentale acceptent l’idée de la détermination mécanique de l’évolution de toute chose selon des lois causales universelles et imprescriptibles. Des quatre causes mises en évidence par Aristote, la science moderne n’a retenu que la cause initiale ou efficiente. Tout ce qui se produit serait le résultat d’une cause qui lui serait antérieure. Ceci semble du bon sens, mais l’est bien moins qu’il n’y paraît.

De plus, la vulgate scientifique moderne insiste : tout ce qui se produit serait le résultat d’une cause identifiable, ce qui permet de représenter l’évolution des choses comme des chaînes linéaires de causes et d’effets. Chaque effet est effet de sa cause et cause de ses effets. Cette concaténation des causes et des effets est une représentation commode, par son mécanisme même, mais fausse.

Tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours.

Chaque événement local est le résultat d’une infinité de causes. Par exemple, Paul, par dépit amoureux, lance une pierre dans le carreau de la chambre de Virginie. L’effet est le bris de la vitre ; la cause est la pierre. Problème résolu ? Il suffit de poser toute la séries des "pourquoi" pour se rendre compte qu’il faut encore savoir pourquoi la maison de Virginie est là, pourquoi sa chambre donne sur la rue, pourquoi un caillou traînait sur le trottoir, pourquoi Paul a rencontré Virginie et pourquoi il en est tombé amoureux, et pourquoi il a été débouté par Virginie (dont le cœur bat pour Pierre : pourquoi donc ?), pourquoi Paul le prend mal, pourquoi il est violent, pourquoi il veut se venger, pourquoi il lance le caillou efficacement et pourquoi celui-ci atteint sa cible, etc., à l’infini. Si l’on veut bien prendre la peine de continuer ces "pourquoi", on en arrive très vite à l’idée que la vitre de la fenêtre de Virginie a volé en éclat parce que tout l’univers, depuis le big-bang, a comploté pour qu’il en soit ainsi. Pour le dire autrement : tout ce qui arrive ici et maintenant est un résultat possible de tout ce qui est arrivé partout, depuis toujours. Cette conclusion est l’essence même du processualisme, qui s’oppose dans toutes ses dimensions au déterminisme mécaniste.

Processualisme contre déterminisme.
Tout effet possède une vraie infinité de causes… et donc n’en possède aucune ! Toutes ces "causes" potentielles qui convergent en un lieu donné, à un moment donné, induisent un événement contingent et non pas nécessaire. Une myriade de bonnes raisons auraient pu faire que la vitre de Virginie ne soit pas brisée, ne serait-ce que parce que la fenêtre eût été ouverte ou le volet baissé. De plus, lorsqu’une infinité de causes se présentent, on comprend qu’il y ait rarement un seul et unique scénario qui puisse y répondre (ce cas rare est précisément celui du déterminisme mécaniste, qui n’opère que dans des univers pauvres et rudimentaires, sans mémoire locale). En fait, dans un monde complexe, un tel faisceau causal ouvre un faisceau de possibles parmi lesquels un choix devra se faire.

Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Dans un petit ouvrage magnifique intitulé Le sablier, Maurice Maeterlinck proposait une vision pouvant se résumer ainsi. Chacun de nous est le goulot étroit d’un sablier avec, au-dessous, tout le sable accumulé venu de tout l’univers, depuis l’aube des temps, qui converge vers soi, et, au-dessus, l’éventail de toutes les influences qui engendreront, au fil du temps, des êtres, des choses, des idées, des conséquences. Chacun n’est que cela : le point de jonction entre le cône convergent de tous ses héritages venant du passé et le cône divergent de tous ses legs allant vers le futur.

Le paragraphe précédent a posé un problème qui a été esquivé et sur lequel il faut revenir : le cône convergent des causes infinies induit, ici et maintenant, un cône divergent de possibles entre lesquels le processus devra choisir. Cette notion de choix intrinsèque est évidemment incompatible avec quelque vision mécaniste et déterministe que ce soit. Mais, qui plus est, elle pose la question des critères de choix. Quels sont-ils ? Pourquoi ceux-là et non d’autres ? S’il y a des choix à faire et que ces choix visent une optimisation (le meilleur choix), cela signifie qu’il y a une "économie" globale qui préside à la logique d’évolution du processus. Chaque processus possède une telle logique intrinsèque, une telle approche économique globale de soi. A un instant donné, le processus est dans un certain état global qui est son présent et qui inclut tout son passé (donc toute sa mémoire). Cet état intrinsèque est confronté à un milieu qui offre des matériaux, des opportunités, des champs causaux, plus ou moins riches. De cette dialectique entre le présent du processus et son milieu, lui aussi au présent, naîtra un champ de possibles (plus ou moins riche selon la complexité locale). Il existe donc une tension intérieure entre ce que le processus est devenu au présent, et ce qu’il pourrait devenir dans son futur immédiat. Cette tension intérieure doit être dissipée (au sens qu’Ilya Prigogine donna à sa notion de "structure dissipative"). Et cette dissipation doit être optimale (c’est là que surgit l’idée d’économie logique, intrinsèque du processus).

L’intention immanente du monde.
Il faut donc retenir que cette tension intérieure est une in-tension, c’est-à-dire une intention. La pensée complexe implique nécessairement un intentionnalisme qui s’oppose farouchement aussi bien au déterminisme qu’au hasardisme propres à la science moderne. "Ni hasard, ni nécessité" fut d’ailleurs le titre d’un de mes ouvrages, publié par Oxus en 2013 et préfacé par… mon ami Edgar Morin – il n’y a pas de hasard !

Cette idée d’intention est violemment rejetée par les sciences modernes qui, malicieusement, mais erronément, y voient une forme d’intervention divine au sein de la machinerie cosmique. Bien entendu, rien de tel n’est supposé dans la notion d’intention qu’il faut comprendre comme résolument intrinsèque et immanente, sans aucun Deus ex machina. Mais quelle est donc cette "intention" cosmique qui guide tous les choix, à tous les niveaux, du plus global (l’univers pris comme un tout) au plus local (chaque processus particulier, aussi infime et éphémère soit-il) ? La plus simple du monde : accomplir tout ce qui est accomplissable, ici et maintenant. Rien de plus. Rien de moins.

Mon lecteur l’aura compris, la pensée complexe repose sur cinq notions-clés (processualisme, holisme, émergentisme, indéterminisme et intentionnalisme) qui, chacune, se placent à l’exact opposé des fondements de la science moderne : atomisme, analycisme, assemblisme, mécanicisme et hasardisme. Cette opposition incontournable marque une profonde révolution épistémologique et une immense mutation paradigmatique.

Auteur: Halévy Marc

Info: 30 mars 2019

[ tour d'horizon ] [ pentacle ] [ monothéïsme ] [ bricolage ] [ sens unique temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel