Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 13
Temps de recherche: 0.0363s

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Notre cerveau à l’heure des nouvelles lectures

Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement de l’enfant est venue évoquer "la modification de notre cerveau-lecteur au 21e siècle"

Comment lisons-nous ?

"Le cerveau humain n’était pas programmé pour être capable de lire. Il était fait pour sentir, parler, entendre, regarder… Mais nous n’étions pas programmés génétiquement pour apprendre à lire". Comme l’explique le neuroscientifique français Stanislas Dehaene (Wikipédia) dans son livre Les neurones de la lecture, nous avons utilisé notre cerveau pour identifier des modèles. C’est l’invention culturelle qui a transformé notre cerveau, qui a relié et connecté nos neurones entre eux, qui leur a appris à travailler en groupes de neurones spécialisés, notamment pour déchiffrer la reconnaissance de formes. La reconnaissance des formes et des modèles a permis la naissance des premiers symboles logographiques, permettant de symboliser ce qu’on voyait qui nous mènera des peintures rupestres aux premières tablettes sumériennes. Avec l’invention de l’alphabet, l’homme inventera le principe que chaque mot est un son et que chaque son peut-être signifié par un symbole. Le cerveau lecteur consiste donc à la fois à être capable de "voir", décoder des informations, des motifs et à les traiter pour pouvoir penser et avoir une réflexion.

Pour autant, le circuit de la lecture n’est pas homogène. Quand on observe à l’imagerie cérébrale un anglais qui lit de l’anglais, un chinois qui lit du chinois ou le Kanji, un Japonais qui lit le Kana japonais, on se rend compte que ces lectures activent des zones sensiblement différentes selon les formes d’écritures. Ce qui signifie qu’il y a plusieurs circuits de lecture dans notre cerveau. Le cerveau est plastique et il se réarrange de multiples façons pour lire, dépendant à la fois du système d’écriture et du médium utilisé. "Nous sommes ce que nous lisons et ce que nous lisons nous façonne" Ce qui explique aussi que chaque enfant qui apprend à lire doit développer son propre circuit de lecture.

Ce qui stimule le plus notre cerveau, selon l’imagerie médicale, c’est d’abord jouer une pièce au piano puis lire un poème très difficile, explique Maryanne Wolf. Car la lecture profonde nécessite une forme de concentration experte. Comme le souligne Proust dans Sur la lecture : "Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit."

La lenteur, la concentration et le processus cognitif encouragent le cerveau lecteur. La déduction, la pensée analogique, l’analyse critique, la délibération, la perspicacité, l’épiphanie (c’est-à-dire la compréhension soudaine de l’essence et de la signification de quelque chose) et la contemplation sont quelques-unes des merveilleuses conséquences de notre capacité à lire la pensée d’un autre.

Pourquoi la lecture numérique est-elle différente ?

Est-ce que ce que nous savons de notre cerveau lecteur éclaire ce que nous ne savons pas de la lecture à l’heure de la culture numérique ? Quelles sont les implications profondes sur la plasticité de nos circuits de lecture à mesure que nous utilisons des médiums dominés par le numérique ?

En 2008, dans une interview pour Wired, quelques mois avant d’écrire son célèbre article, "Est-ce que Google nous rend idiot ?", Nicholas Carr expliquait : "La chose la plus effrayante dans la vision de Stanley Kubrick n’était pas que les ordinateurs commencent à agir comme les gens, mais que les gens commencent à agir comme des ordinateurs. Nous commençons à traiter l’information comme si nous étions des noeuds, tout est question de vitesse de localisation et de lecture de données. Nous transférons notre intelligence dans la machine, et la machine transfère sa façon de penser en nous."

Les caractéristiques cognitives de la lecture en ligne ne sont pas les mêmes que celle de la lecture profonde, estime Maryanne Wolf. Avec le numérique, notre attention et notre concentration sont partielles, moins soutenues. Notre capacité de lecture se fixe sur l’immédiateté et la vitesse de traitement. Nous privilégions une forme de lecture qui nous permet de faire plusieurs tâches en même temps dans des larges ensembles d’information. Les supports numériques ont tendance à rendre notre lecture physique (tactile, interactions sensorielles…) tandis que le lire nous plonge plutôt dans un processus cognitif profond. Pour la spécialiste, il semble impossible de s’immerger dans l’hypertexte. Reprenant les propos de Carr, "l’écrémage est la nouvelle normalité", assène-t-elle. "Avec le numérique, on scanne, on navigue, on rebondit, on repère. Nous avons tendance à bouger, à cliquer et cela réduit notre attention profonde, notre capacité à avoir une lecture concentrée. Nous avons tendance à porter plus d’attention à l’image. Nous avons tendance à moins internaliser la connaissance et à plus dépendre de sources extérieures."

Les travaux d’imagerie cérébrale sur les effets cognitifs du multitâche montrent que même si on peut apprendre en étant distraits cela modifie notre façon d’apprendre rendant l’apprentissage moins efficace et utile estime le professeur de psychologie et neurobiologie Russ Poldrack. Les facteurs tactiles et matériels ont aussi une importance. On ne peut s’immerger dans l’hypertexte de la même façon qu’on pouvait se perdre dans un livre, estime la spécialiste de la lecture Anne Mangen du Centre sur la lecture de l’université de Stavanger. Plusieurs études ont montré que notre niveau de compréhension entre l’écran et l’imprimé se faisait toujours au détriment du numérique, rappelle Maryanne Wolf. Mais peut-être faudrait-il nuancer les propos de Maryanne Wolf et souligner, comme nous l’avions déjà rappelé lors de la publication de la charge de Nicholas Carr que les les protocoles d’expérimentation des neuroscientifiques défendent souvent des thèses. La science et l’imagerie médicale semblent convoquées pour apporter des preuves. Alors que les différences de protocoles entre une étude l’autre, la petitesse des populations étudiées, nécessiterait beaucoup de prudence dans les conclusions.

Reste que pour comprendre cette différence entre papier et électronique, estime Maryanne Wolf, il nous faut comprendre comment se forme notre capacité de lecture profonde. Est-ce que la lecture superficielle et notre attente continue d’informations externes seront les nouvelles menaces des lectures numériques ? Ces deux risques vont-ils court-circuiter notre "cerveau lecteur" ? Est-ce que la construction de l’imaginaire de l’enfance va être remplacée par celle, externe, que tous les nouveaux supports offrent ? …

"Nous ne reviendrons pas en arrière, nous ne reviendrons pas à un temps prénumérique", insiste Maryanne Wolf. "Ce n’est ni envisageable, ni enviable, ni faisable."

"Mais nous ne devrions pas accepter une embardée vers l’avant sans comprendre ce que le "répertoire cognitif" de notre espèce risque de perdre ou de gagner."
 "Ce serait une honte si la technologie la plus brillante que nous ayons développée devait finir par menacer le genre d’intelligence qui l’a produite", estime l’historien des technologies Edward Tenner. Et Maryanne Wolf de nous montrer trois enfants assis dans un canapé, avec chacun son ordinateur sur ses genoux. C’est l’image même qui inspire notre peur de demain. Celle-là même qu’évoquait l’anthropologue Stefana Broadbent à Lift 2012. Sauf que l’anthropologue, elle, nous montrait qu’on était là confronté là à une représentation sociale… une interrogation totalement absente du discours alarmiste de Maryanne Wolf, qui compare l’activité cognitive de cerveaux habitués à la lecture traditionnelle, avec celle de cerveaux qui découvrent les modalités du numérique.

Le numérique a bien un défaut majeur, celui d’introduire dans notre rapport culturel même des modalités de distraction infinies. Comme nous le confiait déjà Laurent Cohen en 2009, l’écran ou le papier ne changent rien à la capacité de lecture. Mais c’est le réseau qui pose problème et ce d’autant plus quand il apporte une distraction permanente, permettant toujours de faire autre chose que ce que l’on compte faire.

Si la lecture profonde peut se faire tout autant sur papier qu’à travers le réseau, le principal problème qu’induit le numérique, c’est la possibilité de distraction induite par l’outil lui-même, qui demande, pour y faire face, un contrôle de soi plus exigeant.

Notre avenir cognitif en sursis ?

Alors, comment résoudre ce paradoxe, se demande Maryanne Wolf. Comment pouvons-nous éviter de "court-circuiter" notre capacité à lire en profondeur, tout en acquérant les nouvelles compétences nécessaires pour le 21e siècle ?

Un premier pas peut-être fait en ayant conscience de nos limites, estime Maryanne Wolf. Rappelons-nous que notre cerveau n’a jamais été programmé génétiquement pour lire. Que chaque lecteur doit construire ses propres circuits de lecture. Que nos circuits de lecture sont plastiques et influencés par les médiums et les systèmes d’écriture que nous utilisons. Notre cerveau-lecteur est capable à la fois des plus superficielles et des plus profondes formes de lecture, de ressenti et de pensées.

Nous pouvons deviner que l’accès à l’information ne va cesser d’augmenter. Mais nous ne savons pas si l’accès immédiat à de vastes quantités d’informations va transformer la nature du processus de lecture interne, à savoir la compréhension profonde et l’internalisation de la connaissance.

Pour le dire autrement, notre cerveau est d’une plasticité totale, mais cela ne veut pas dire que nous allons perdre telle ou telle capacité d’attention, alors que celles-ci ont plus que jamais une importance sociale. Pour l’instant, pourrions-nous répondre à Maryanne Wolf, ce que le cerveau lecteur nous a le plus fait perdre, c’est certainement notre capacité à lire les détails du monde naturel que comprenait le chasseur-cueilleur.

Nous ne savons pas si l’accès immédiat à cette quantité croissante d’information externe va nous éloigner du processus de lecture profonde ou au contraire va nous inciter à explorer la signification des choses plus en profondeur, estime Wolf en reconnaissant tout de même, après bien des alertes, l’ignorance des neuroscientifiques en la matière. Bref, nous ne savons pas si les changements qui s’annoncent dans l’intériorisation des connaissances vont se traduire par une altération de nos capacités cognitives, ni dans quel sens ira cette altération.

Si nous ne savons pas tout de notre avenir cognitif, estime Wolf, peut-être pouvons-nous conserver certains objectifs en vue. Que pouvons-nous espérer ? La technologie va bouleverser l’apprentissage, estime Maryanne Wolf en évoquant l’expérimentation qu’elle mène avec le MIT sur le prêt de tablettes auprès d’enfants éthiopiens qui n’ont jamais été alphabétisés et qui montre des jeunes filles capables de retenir l’alphabet qu’elles n’avaient jamais appris. Comment peut-on créer les conditions pour que les nouveaux lecteurs développent une double capacité… savoir à la fois quand il leur faut écrémer l’information et quand il leur faut se concentrer profondément ?

En semblant à la fois croire dans l’apprentissage par les robots, comme le montre l’expérience OLPC en Ethiopie de laquelle elle participe visiblement avec un certain enthousiasme (alors que certains spécialistes de l’éducation ont montré que l’essentielle des applications d’apprentissage de la lecture ne permettaient pas de dépasser le niveau de l’apprentissage de l’alphabet, en tout cas n’étaient pas suffisantes pour apprendre à lire seul) et en n’ayant de cesse de nous mettre en garde sur les risques que le numérique fait porter à la lecture profonde, Maryanne Wolf semble avoir fait un grand écart qui ne nous a pas aidés à y voir plus clair.

Après la langue et le langage : la cognition

Pour l’ingénieur et philosophe Christian Fauré, membre de l’association Ars Industrialis. "l’organologie générale" telle que définit par Ars Industrialis et le philosophe Bernard Stiegler, organisateur de ces rencontres, vise à décrire et analyser une relation entre 3 types d' "organes" qui nous définissent en tant qu’humain : les organes physiologiques (et psychologiques), les organes techniques et les organes sociaux.

"Nos organes physiologiques n’évoluent pas indépendamment de nos organes techniques et sociaux", rappelle Christian Fauré. Dans cette configuration entre 3 organes qui se surdéterminent les uns les autres, le processus d’hominisation semble de plus en plus porté, "transporté" par l’organe technique. Car dans un contexte d’innovation permanente, le processus d’hominisation, ce qui nous transforme en hommes, est de plus en plus indexé par l’évolution de nos organes techniques. La question est de savoir comment nos organes sociaux, psychologiques et physiologiques vont suivre le rythme de cette évolution. A l’époque de l’invention des premiers trains, les gens avaient peur d’y grimper, rappelle le philosophe. On pensait que le corps humain n’était pas fait pour aller à plus de 30 km à l’heure.

L’évolution que nous connaissons se produit via des interfaces entre les différents organes et c’est celles-ci que nous devons comprendre, estime Christian Fauré. Quel est le rôle des organes techniques et quels sont leurs effets sur nos organes sociaux et physiologiques ?L’écriture a longtemps été notre principal organe technique. Parce qu’elle est mnémotechnique, elle garde et conserve la mémoire. Par son statut, par les interfaces de publication, elle rend public pour nous-mêmes et les autres et distingue le domaine privé et le domaine public. Or l’évolution actuelle des interfaces d’écriture réagence sans arrêt la frontière entre le privé et le public. Avec le numérique, les interfaces de lecture et d’écriture ne cessent de générer de la confusion entre destinataire et destinateur, entre ce qui est privé et ce qui est public, une distinction qui est pourtant le fondement même de la démocratie, via l’écriture publique de la loi. Avec le numérique, on ne sait plus précisément qui voit ce que je publie… ni pourquoi on voit les messages d’autrui.

La question qui écrit à qui est devenue abyssale, car, avec le numérique, nous sommes passés de l’écriture avec les machines à l’écriture pour les machines. L’industrie numérique est devenue une industrie de la langue, comme le soulignait Frédéric Kaplan. Et cette industrialisation se fait non plus via des interfaces homme-machine mais via de nouvelles interfaces, produites par et pour les machines, dont la principale est l’API, l’interface de programmation, qui permet aux logiciels de s’interfacer avec d’autres logiciels.

Le nombre d’API publiée entre 2005 et 2012 a connu une croissance exponentielle, comme l’explique ProgrammableWeb qui en tient le décompte. Désormais, plus de 8000 entreprises ont un modèle d’affaire qui passe par les API. "Le web des machines émerge du web des humains. On passe d’un internet des humains opéré par les machines à un internet pour les machines opéré par les machines. L’API est la nouvelle membrane de nos organes techniques qui permet d’opérer automatiquement et industriellement sur les réseaux."

Ecrire directement avec le cerveau

Le monde industriel va déjà plus loin que le langage, rappelle Christian Fauré sur la scène des Entretiens du Nouveau Monde industriel. "Nous n’écrivons plus. Nous écrivons sans écrire, comme le montre Facebook qui informe nos profils et nos réseaux sociaux sans que nous n’ayons plus à écrire sur nos murs. Nos organes numériques nous permettent d’écrire automatiquement, sans nécessiter plus aucune compétence particulière. Et c’est encore plus vrai à l’heure de la captation de données comportementales et corporelles. Nos profils sont renseignés par des cookies que nos appareils techniques écrivent à notre place. Nous nous appareillons de capteurs et d’API "qui font parler nos organes". Les interfaces digitales auxquelles nous nous connectons ne sont plus des claviers ou des écrans tactiles… mais des capteurs et des données." Les appareillages du Quantified Self sont désormais disponibles pour le grand public. La captation des éléments physiologique s’adresse à nos cerveaux, comme l’explique Martin Lindstrom dans Buy.Ology. "Nous n’avons même plus besoin de renseigner quoi que ce soit. Les capteurs le font à notre place. Pire, le neuromarketing semble se désespérer du langage. On nous demande de nous taire. On ne veut pas écouter ce que l’on peut dire ou penser, les données que produisent nos capteurs et nos profils suffisent." A l’image des séries américaines comme Lie to Me ou the Mentalist où les enquêteurs ne s’intéressent plus à ce que vous dites. Ils ne font qu’observer les gens, ils lisent le corps, le cerveau. "L’écriture de soi n’est plus celle de Foucault, les échanges entre lettrés. On peut désormais s’écrire sans savoir écrire. Nous entrons dans une époque d’écriture automatique, qui ne nécessite aucune compétence. Nous n’avons même plus besoin du langage. L’appareillage suffit à réactualiser le connais-toi toi-même  !"

Google et Intel notamment investissent le champ des API neuronales et cherchent à créer un interfaçage direct entre le cerveau et le serveur. Le document n’est plus l’interface. Nous sommes l’interface !

"Que deviennent la démocratie et la Res Publica quand les données s’écrivent automatiquement, sans passer par le langage ? Quand la distinction entre le public et le privé disparaît ? Alors que jusqu’à présent, la compétence technique de la lecture et de l’écriture était la condition de la citoyenneté", interroge Christian Fauré.

Les capteurs et les interfaces de programmation ne font pas que nous quantifier, ils nous permettent également d’agir sur notre monde, comme le proposent les premiers jouets basés sur un casque électroencéphalographique (comme Mindflex et Star Wars Science The Force Trainer), casques qui utilisent l’activité électrique du cerveau du joueur pour jouer. Ces jouets sont-ils en train de court-circuiter notre organe physiologique ?

Mais, comme l’a exprimé et écrit Marianne Wolf, nous n’étions pas destinés à écrire. Cela ne nous a pas empêchés de l’apprendre. Nous sommes encore moins nés pour agir sur le réel sans utiliser nos organes et nos membres comme nous le proposent les casques neuronaux.

Quand on regarde les cartographies du cortex somatosensoriel on nous présente généralement une représentation de nous-mêmes selon l’organisation neuronale. Celle-ci déforme notre anatomie pour mettre en évidence les parties de celle-ci les plus sensibles, les plus connectés à notre cerveau. Cette représentation de nous est la même que celle que propose la logique des capteurs. Or, elle nous ressemble bien peu.

(Image extraite de la présentation de Christian Fauré : ressemblons à notre cortex somatosensoriel ?)

Que se passera-t-il demain si nous agissons dans le réel via des casques neuronaux ? La Science Fiction a bien sûr anticipé cela. Dans Planète interdite, le sous-sol de la planète est un vaste data center interfacé avec le cerveau des habitants de la planète qui ne donne sa pleine puissance que pendant le sommeil des habitants. "Ce que nous rappelle toujours la SF c’est que nos pires cauchemars se réalisent quand on interface l’inconscient à la machine, sans passer par la médiation de l’écriture ou du langage. Si la puissance du digital est interfacée et connectée directement aux organes physiologiques sans la médiation de l’écriture et du langage, on imagine alors à quel point les questions technologiques ne sont rien d’autre que des questions éthiques", conclut le philosophe.

Si on ne peut qu’être d’accord avec cette crainte de la modification du cerveau et de la façon même dont on pense via le numérique comme c’était le cas dans nombre d’interventions à cette édition des Entretiens du Nouveau Monde industriel, peut-être est-il plus difficile d’en rester à une dénonciation, comme l’a montré l’ambiguïté du discours de Maryanne Wolf. Si nous avons de tout temps utilisé des organes techniques, c’est dans l’espoir qu’ils nous libèrent, qu’ils nous transforment, qu’ils nous distinguent des autres individus de notre espèce et des autres espèces. Pour répondre à Christian Fauré, on peut remarquer que la SF est riche d’oeuvres qui montrent ou démontrent que l’augmentation de nos capacités par la technique était aussi un moyen pour faire autre chose, pour devenir autre chose, pour avoir plus de puissance sur le monde et sur soi. Il me semble pour ma part qu’il est important de regarder ce que les interfaces neuronales et les capteurs libèrent, permettent. Dans the Mentalist, pour reprendre la référence de Christian Fauré, ce sont les capacités médiumniques extraordinaires de l’enquêteur qui transforme son rapport au monde et aux autres. Si l’interfaçage direct des organes physiologique via des capteurs et des données produit de nouvelles formes de pouvoir, alors il est certain que nous nous en emparerons, pour le meilleur ou pour le pire. On peut légitimement le redouter ou s’en inquiéter, mais ça ne suffira pas à nous en détourner.

Qu’allons-nous apprendre en jouant de l’activité électrique de nos cerveaux ? On peut légitimement se demander ce que cela va détruire… Mais si on ne regarde pas ce que cela peut libérer, on en restera à une dénonciation sans effets.



 

Auteur: Guillaud Hubert

Info: https://www.lemonde.fr/blog/internetactu/2013/01/11/notre-cerveau-a-lheure-des-nouvelles-lectures/

[ communication ] [ réflexivité ] [ métalangage ] [ secondéités intégrées ] [ prospective ] [ niveaux de lecture ] [ citation s'appliquant à ce logiciel ] [ inversion ] [ triade ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

source du vivant

Comment la vie (et la mort) naissent du désordre

On a longtemps pensé que la vie obéissait à ses propres règles. Mais alors que des systèmes simples montrent des signes de comportement réaliste, les scientifiques se demandent si cette apparente complexité n'est pas simplement une conséquence de la thermodynamique.

Quelle est la différence entre physique et biologie ? Prenez une balle de golf et un boulet de canon et déposez-les au sommet de la Tour de Pise. Les lois de la physique vous permettent de prédire leurs trajectoires avec autant de précision que vous pourriez le souhaiter.

Maintenant, refaites la même expérience, mais remplacez le boulet de canon par un pigeon.

Les systèmes biologiques ne défient pas les lois physiques, bien sûr, mais celles-ci ne semblent pas non plus pouvoir les prédire. En revanche, ils sont orientés vers un objectif : survivre et se reproduire. On peut dire qu’ils ont un but – ou ce que les philosophes appellent traditionnellement une téléologie – qui guide leur comportement.De la même manière, la physique nous permet désormais de prédire, à partir de l’état de l’univers un milliardième de seconde après le Big Bang, ce à quoi il ressemble aujourd’hui. Mais personne n’imagine que l’apparition des premières cellules primitives sur Terre a conduit de manière prévisible à la race humaine. Il semble qu'il n'y ait pas de loi qui dicte le cours de l’évolution.

La téléologie et la contingence historique de la biologie, a déclaré le biologiste évolutionniste Ernst Mayr, la rendent uniques qui parmi les sciences. Ces deux caractéristiques découlent peut-être du seul principe directeur général de la biologie : l’évolution. Qui dépend du hasard et des aléas, mais la sélection naturelle lui donne l’apparence d’une intention et d’un but. Les animaux ne sont pas attirés vers l’eau par une attraction magnétique, mais par leur instinct, leur intention de survivre. Les jambes servent, entre autres, à nous emmener à l'eau.

Mayr affirmait que ces caractéristiques rendent la biologie exceptionnelle – une loi en soi. Mais les développements récents en physique hors équilibre, en science des systèmes complexes et en théorie de l’information remettent en question cette vision.

Une fois que nous considérons les êtres vivants comme des agents effectuant un calcul – collectant et stockant des informations sur un environnement imprévisible – les capacités et les considérations telles que la réplication, l’adaptation, l’action, le but et la signification peuvent être comprises comme découlant non pas d’une improvisation évolutive, mais comme d'inévitables corollaires aux lois physiques. En d’autres termes, il semble y avoir une sorte de physique selon laquelle les choses font des choses et évoluent pour faire des choses. Le sens et l’intention – considérés comme les caractéristiques déterminantes des systèmes vivants –  émergeant naturellement à travers les lois de la thermodynamique et de la mécanique statistique.

En novembre dernier, des physiciens, des mathématiciens et des informaticiens se sont réunis avec des biologistes évolutionnistes et moléculaires pour discuter – et parfois débattre – de ces idées lors d'un atelier à l'Institut de Santa Fe au Nouveau-Mexique, la Mecque de la science des " systèmes complexes ". La question était  : à quel point la biologie est-elle spéciale (ou non) ?

Il n’est guère surprenant qu’il n’y ait pas eu de consensus. Mais un message qui est ressorti très clairement est que, s’il existe une sorte de physique derrière la téléologie et l’action biologiques, elle a quelque chose à voir avec le même concept qui semble s’être installé au cœur de la physique fondamentale elle-même : l’information.

Désordre et démons

La première tentative d’introduire l’information et l’intention dans les lois de la thermodynamique a eu lieu au milieu du XIXe siècle, lorsque la mécanique statistique fut inventée par le scientifique écossais James Clerk Maxwell. Maxwell a montré comment l’introduction de ces deux ingrédients semblait permettre de réaliser des choses que la thermodynamique proclamait impossibles.

Maxwell avait déjà montré comment les relations mathématiques prévisibles et fiables entre les propriétés d’un gaz – pression, volume et température – pouvaient être dérivées des mouvements aléatoires et inconnaissables d’innombrables molécules secouées frénétiquement par l’énergie thermique. En d’autres termes, la thermodynamique – la nouvelle science du flux de chaleur, qui unissait les propriétés de la matière à grande échelle comme la pression et la température – était le résultat de la mécanique statistique à l’échelle microscopique des molécules et des atomes.

Selon la thermodynamique, la capacité à extraire du travail utile des ressources énergétiques de l’univers est en constante diminution. Les poches d’énergie diminuent, les concentrations de chaleur s’amenuisent. Dans tout processus physique, une certaine énergie est inévitablement dissipée sous forme de chaleur inutile, perdue au milieu des mouvements aléatoires des molécules. Ce caractère aléatoire est assimilé à la quantité thermodynamique appelée entropie – une mesure du désordre – qui est toujours croissante. C'est la deuxième loi de la thermodynamique. Finalement, l’univers en entier sera réduit à un fouillis uniforme et ennuyeux : un état d’équilibre, dans lequel l’entropie est maximisée et où rien de significatif ne se reproduira plus jamais.

Sommes-nous vraiment condamnés à ce triste sort ? Maxwell était réticent à y croire et, en 1867, il entreprit, comme il le disait, de " faire un trou " dans la deuxième loi. Son objectif était de commencer avec une boîte emplie de molécules désordonnée qui s'agitaient de manière aléatoire, puis de séparer les molécules rapides des molécules lentes, réduisant ainsi l'entropie.

Imaginez une petite créature – le physicien William Thomson l'appellera plus tard, au grand désarroi de Maxwell, un démon – qui peut voir chaque molécule individuelle dans la boîte. Le démon sépare la boîte en deux compartiments, avec une porte coulissante dans le mur entre eux. Chaque fois qu'il aperçoit une molécule particulièrement énergétique s'approcher de la porte depuis le compartiment de droite, il l'ouvre pour la laisser passer. Et chaque fois qu’une molécule lente et "froide " s’approche par la gauche, il la laisse passer également. Enfin, il dispose d'un compartiment de gaz froid à droite et de gaz chaud à gauche : un réservoir de chaleur sur lequel on peut puiser pour effectuer des travaux, compenser, etc.

Cela n'est possible que pour deux raisons. Premièrement, le démon possède plus d’informations que nous : il peut voir toutes les molécules individuellement, plutôt que de se limiter à des moyennes statistiques. Et deuxièmement, il a une intention : un plan pour séparer le chaud du froid. En exploitant intentionnellement ses connaissances, il peut défier les lois de la thermodynamique.

Du moins, semble-t-il. Il a fallu cent ans pour comprendre pourquoi le démon de Maxwell ne peut en fait vaincre la deuxième loi et éviter le glissement inexorable vers un équilibre mortel et universel. Et la raison montre qu’il existe un lien profond entre la thermodynamique et le traitement de l’information – ou en d’autres termes, le calcul. Le physicien germano-américain Rolf Landauer a montré que même si le démon peut recueillir des informations et déplacer la porte (sans friction) sans coût d'énergie, il reste quand même quelque chose à payer. Parce qu'il ne peut pas y avoir une mémoire illimitée de chaque mouvement moléculaire, il faut occasionnellement effacer sa mémoire – oublier ce qu'il a vu et recommencer – avant de pouvoir continuer à récolter de l'énergie. Cet acte d’effacement d’informations a un prix inévitable : il dissipe de l’énergie, et donc augmente l’entropie. Tous les gains réalisés contre la deuxième loi grâce au travail astucieux du démon sont annulés par cette " limite de Landauer " : le coût fini de l'effacement de l'information (ou plus généralement, de la conversion de l'information d'une forme vers une autre).

Les organismes vivants ressemblent plutôt au démon de Maxwell. Alors qu’un récipient empli de produits chimiques en interactions finira par dépenser son énergie pour tomber dans une stase et un équilibre ennuyeux, les systèmes vivants évitent collectivement l’état d’équilibre du non vivant depuis l’origine de la vie il y a environ trois milliards et demi d’années. Ils récupèrent l’énergie de leur environnement pour maintenir cet état de non-équilibre, et ils le font avec " une intention ". Même les simples bactéries se déplacent avec " intention " vers les sources de chaleur et de nutrition. Dans son livre de 1944, Qu'est-ce que la vie ?, le physicien Erwin Schrödinger l’a exprimé en disant que les organismes vivants se nourrissent d’ " entropie négative ".

Ils y parviennent, explique Schrödinger, en capturant et en stockant des informations. Certaines de ces informations sont codées dans leurs gènes et transmises d’une génération à l’autre : un ensemble d’instructions pour continuer de récolter l’entropie négative. Schrödinger ne savait pas où les informations sont conservées ni comment elles sont codées, mais son intuition selon laquelle elles sont écrites dans ce qu'il nomme un " cristal apériodique* " a inspiré Francis Crick, lui-même physicien de formation, et James Watson lorsqu'en 1953, ils pensèrent comment l'information génétique peut être codée dans la structure moléculaire de la molécule d'ADN.

Un génome est donc, au moins en partie, un enregistrement des connaissances utiles qui ont permis aux ancêtres d'un organisme – jusqu'à un passé lointain – de survivre sur notre planète. Selon David Wolpert, mathématicien et physicien de l'Institut de Santa Fe qui a organisé le récent atelier, et son collègue Artemy Kolchinsky, le point clé est que les organismes bien adaptés sont corrélés à cet environnement. Si une bactérie nage de manière fiable vers la gauche ou la droite lorsqu’il y a une source de nourriture dans cette direction, elle est mieux adaptée et s’épanouira davantage qu’une bactérie qui nage dans des directions aléatoires et ne trouve donc la nourriture que par hasard. Une corrélation entre l’état de l’organisme et celui de son environnement implique qu’ils partagent des informations en commun. Wolpert et Kolchinsky affirment que c'est cette information qui aide l'organisme à rester hors équilibre, car, comme le démon de Maxwell, il peut adapter son comportement pour extraire le travail des fluctuations de son environnement. S’il n’acquérait pas cette information, l’organisme retrouverait progressivement cet équilibre : il mourrait.

Vue sous cet angle, la vie peut être considérée comme un calcul visant à optimiser le stockage et l’utilisation d’informations significatives. Et la vie s’avère extrêmement efficace dans ce domaine. La résolution par Landauer de l'énigme du démon de Maxwell a fixé une limite inférieure absolue à la quantité d'énergie requise par un calcul à mémoire finie : à savoir le coût énergétique de l'oubli. Les meilleurs ordinateurs d’aujourd’hui gaspillent bien plus d’énergie que cela, consommant et dissipant généralement plus d’un million de fois plus. Mais selon Wolpert, " une estimation très prudente de l’efficacité thermodynamique du calcul total effectué par une cellule est qu’elle n’est qu’environ 10 fois supérieure à la limite de Landauer ".

L’implication, dit-il, est que " la sélection naturelle s’est énormément préoccupée de minimiser le coût thermodynamique du calcul. Elle fera tout son possible pour réduire la quantité totale de calculs qu’une cellule doit effectuer. En d’autres termes, la biologie (à l’exception peut-être de nous-mêmes) semble prendre grand soin de ne pas trop réfléchir au problème de la survie. Cette question des coûts et des avantages de l'informatique tout au long de la vie, a-t-il déclaré, a été largement négligée en biologie jusqu'à présent.

Darwinisme inanimé

Ainsi, les organismes vivants peuvent être considérés comme des entités qui s’adaptent à leur environnement en utilisant l’information pour récolter de l’énergie et échapper à l’équilibre. On pensera ce qu'on veut de cette phrase mais on remarquera qu'elle ne dit rien sur les gènes et l’évolution, que Mayr, comme de nombreux biologistes, pensait subordonnés à une intention et des but biologiques.

Jusqu’où cette image peut-elle alors nous mener ? Les gènes perfectionnés par la sélection naturelle sont sans aucun doute au cœur de la biologie. Mais se pourrait-il que l’évolution par sélection naturelle ne soit en elle-même qu’un cas particulier d’un impératif plus général vers une fonction et un but apparent qui existe dans l’univers purement physique ? ça commence à ressembler à cela.

L’adaptation a longtemps été considérée comme la marque de l’évolution darwinienne. Mais Jeremy England, du Massachusetts Institute of Technology, a soutenu que l'adaptation à l'environnement peut se produire même dans des systèmes non vivants complexes.

L’adaptation a ici une signification plus spécifique que l’image darwinienne habituelle d’un organisme bien équipé pour survivre. L’une des difficultés de la vision darwinienne est qu’il n’existe aucun moyen de définir un organisme bien adapté sauf rétrospectivement. Les " plus aptes " sont ceux qui se sont révélés meilleurs en termes de survie et de réplication, mais on ne peut pas prédire ce qu'implique les conditions physiques. Les baleines et le plancton sont bien adaptés à la vie marine, mais d’une manière qui n’a que peu de relations évidentes entre eux.

La définition anglaise de " l'adaptabilité " est plus proche de celle de Schrödinger, et même de celle de Maxwell : une entité bien adaptée peut absorber efficacement l'énergie d'un environnement imprévisible et fluctuant. C'est comme la personne qui garde l'équilibre sur un navire qui tangue alors que d'autres tombent parce qu'elle sait mieux s'adapter aux fluctuations du pont. En utilisant les concepts et les méthodes de la mécanique statistique dans un contexte de non-équilibre, England et ses  collègues soutiennent que ces systèmes bien adaptés sont ceux qui absorbent et dissipent l'énergie de l'environnement, générant ainsi de l'entropie.

Les systèmes complexes ont tendance à s’installer dans ces états bien adaptés avec une facilité surprenante, a déclaré England :  "La matière qui fluctue thermiquement se modèle souvent spontanément via des formes qui absorbent bien le travail d'un environnement qui varie dans le temps."

Rien dans ce processus n’implique une adaptation progressive à l’environnement par le biais des mécanismes darwiniens de réplication, de mutation et d’héritage des traits. Il n'y a aucune réplication du tout. "Ce qui est passionnant, c'est que cela signifie que lorsque nous donnons un aperçu physique des origines de certaines des structures d'apparence adaptée que nous voyons, il n'est pas nécessaire qu'elles aient eu des parents au sens biologique habituel", a déclaré England. " On peut expliquer l'adaptation évolutive à l'aide de la thermodynamique, même dans des cas intrigants où il n'y a pas d'auto-réplicateurs et où la logique darwinienne s'effondre " - à condition que le système en question soit suffisamment complexe, polyvalent et sensible pour répondre aux fluctuations de son environnement.

Mais il n’y a pas non plus de conflit entre l’adaptation physique et l’adaptation darwinienne. En fait, cette dernière peut être considérée comme un cas particulier de la première. Si la réplication est présente, alors la sélection naturelle devient la voie par laquelle les systèmes acquièrent la capacité d'absorber le travail – l'entropie négative de Schrödinger – de l'environnement. L’auto-réplication est en fait un mécanisme particulièrement efficace pour stabiliser des systèmes complexes, et il n’est donc pas surprenant que ce soit ce que la biologie utilise. Mais dans le monde non vivant où la réplication ne se produit généralement pas, les structures dissipatives bien adaptées ont tendance à être très organisées, comme les ondulations de sable et les dunes cristallisant à partir de la danse aléatoire du sable soufflé par le vent. Vue sous cet angle, l’évolution darwinienne peut être considérée comme un exemple spécifique d’un principe physique plus général régissant les systèmes hors équilibre.

Machines à prévoir

Cette image de structures complexes s’adaptant à un environnement fluctuant nous permet également de déduire quelque chose sur la manière dont ces structures stockent l’information. En bref, tant que de telles structures – qu’elles soient vivantes ou non – sont obligées d’utiliser efficacement l’énergie disponible, elles sont susceptibles de devenir des " machines à prédiction ".

C'est presque une caractéristique déterminante de la vie que les systèmes biologiques changent d'état en réponse à un signal moteur provenant de l'environnement. Quelque chose se passe ; vous répondez. Les plantes poussent vers la lumière ; elles produisent des toxines en réponse aux agents pathogènes. Ces signaux environnementaux sont généralement imprévisibles, mais les systèmes vivants apprennent de leur expérience, stockant des informations sur leur environnement et les utilisant pour orienter leurs comportements futurs. (Photo : les gènes, sur cette image, donnent simplement les éléments essentiels de base à usage général.)

La prédiction n’est cependant pas facultative. Selon les travaux de Susanne Still de l'Université d'Hawaï, de Gavin Crooks, anciennement du Lawrence Berkeley National Laboratory en Californie, et de leurs collègues, prédire l'avenir semble essentiel pour tout système économe en énergie dans un environnement aléatoire et fluctuant.

Still et ses collègues démontrent que le stockage d'informations sur le passé qui n'ont aucune valeur prédictive pour l'avenir a un coût thermodynamique. Pour être le plus efficace possible, un système doit être sélectif. S'il se souvient sans discernement de tout ce qui s'est passé, il subit un coût énergétique important. En revanche, s'il ne prend pas la peine de stocker la moindre information sur son environnement, il aura constamment du mal à faire face aux imprévus. "Une machine thermodynamiquement optimale doit équilibrer la mémoire et la prédiction en minimisant sa nostalgie - les informations inutiles sur le passé", a déclaré un co-auteur, David Sivak, maintenant à l'Université Simon Fraser à Burnaby, en Colombie-Britannique. En bref, il doit être capable de récolter des informations significatives, celles qui sont susceptibles d'être utiles à la survie future.

On pourrait s’attendre à ce que la sélection naturelle favorise les organismes qui utilisent efficacement l’énergie. Mais même les dispositifs biomoléculaires individuels, comme les pompes et les moteurs de nos cellules, devraient, d’une manière ou d’une autre, tirer les leçons du passé pour anticiper l’avenir. Pour acquérir leur remarquable efficacité, dit Still, ces appareils doivent " implicitement construire des représentations concises du monde qu’ils ont rencontré jusqu’à présent,  afin de pouvoir anticiper ce qui va arriver ".

Thermodynamique de la mort

Même si certaines de ces caractéristiques fondamentales de traitement de l'information des systèmes vivants existent déjà, en l'absence d'évolution ou de réplication, grâce à cette thermodynamique de non-équilibre, on pourrait imaginer que des caractéristiques plus complexes - l'utilisation d'outils, par exemple, ou la coopération sociale - doivent émerger à un certain moment de l'évolution.

Eh bien, ne comptez pas là-dessus. Ces comportements, généralement considérés comme du domaine exclusif de la niche évolutive très avancée qui comprend les primates et les oiseaux, peuvent être imités dans un modèle simple constitué d'un système de particules en interaction. L’astuce est que le système est guidé par une contrainte : il agit de manière à maximiser la quantité d’entropie (dans ce cas, définie en termes de différents chemins possibles que les particules pourraient emprunter) qu’il génère dans un laps de temps donné. 

La maximisation de l’entropie a longtemps été considérée comme une caractéristique des systèmes hors équilibre. Mais le dispositif-système de ce modèle obéit à une règle qui lui permet de maximiser l’entropie sur une fenêtre de temps fixe qui s’étend dans le futur. En d’autres termes, il fait preuve de prévoyance. En effet, le modèle examine tous les chemins que les particules pourraient emprunter et les oblige à adopter le chemin qui produit la plus grande entropie. En gros, c’est généralement la voie qui laisse ouverte le plus grand nombre d’options quant à la manière dont les particules pourraient se déplacer ultérieurement. (mis en italique par Mg)

On pourrait dire que le système de particules éprouve une sorte de besoin de préserver sa liberté d’action future, et que ce besoin guide son comportement à tout moment. Les chercheurs qui ont développé le modèle – Alexander Wissner-Gross de l’Université Harvard et Cameron Freer, mathématicien du Massachusetts Institute of Technology – appellent cela une " force entropique causale ". Dans les simulations informatiques de configurations de particules en forme de disque se déplaçant dans des contextes particuliers, cette force crée des résultats qui suggèrent étrangement l’intelligence.

Dans un cas, un grand disque a pu " utiliser " un petit disque pour extraire un deuxième petit disque d’un tube étroit – un processus qui ressemblait à l’utilisation d’un outil. Libérer le disque augmentait l'entropie du système. Dans un autre exemple, deux disques placés dans des compartiments séparés ont synchronisé leur comportement pour tirer un disque plus grand vers le bas afin qu'ils puissent interagir avec lui, donnant ainsi l'apparence d'une coopération sociale.

Bien entendu, ces simples agents en interaction bénéficient d’un aperçu de l’avenir. La vie, en règle générale, ne le fait pas. Alors, dans quelle mesure est-ce pertinent pour la biologie ? Ce n’est pas clair, même si Wissner-Gross a déclaré qu’il travaillait actuellement à établir " un mécanisme pratique et biologiquement plausible pour les forces entropiques causales ". En attendant, il pense que cette approche pourrait avoir des retombées pratiques, offrant un raccourci vers l’intelligence artificielle. " Je prédis qu'un moyen plus rapide d'y parvenir sera de d'abord  identifier un tel comportement, puis de travailler à rebours à partir des principes et contraintes physiques, plutôt que de travailler vers l'avant à partir de techniques de calcul ou de prédiction particulières ", a-t-il déclaré. En d’autres termes, trouvez d’abord un système qui fait ce que vous voulez qu’il fasse, puis déterminez comment il le fait.

Le vieillissement est également traditionnellement considéré comme un trait dicté par l’évolution. Les organismes ont une durée de vie qui crée des opportunités de reproduction, raconte l'histoire, sans inhiber les perspectives de survie de la progéniture du fait que les parents restent trop longtemps et se disputent les ressources. Cela semble sûrement faire partie de l'histoire, mais Hildegard Meyer-Ortmanns, physicienne à l'Université Jacobs de Brême, en Allemagne, pense qu'en fin de compte, le vieillissement est un processus physique et non biologique, régi par la thermodynamique de l'information.

Ce n’est certainement pas simplement une question d’usure. "La plupart des matériaux souples dont nous sommes constitués sont renouvelés avant d'avoir la chance de vieillir", a déclaré Meyer-Ortmanns. Mais ce processus de renouvellement n'est pas parfait. La thermodynamique de la copie de l'information dicte qu'il doit y avoir un compromis entre précision et énergie. Un organisme dispose d’une réserve d’énergie limitée, donc les erreurs s’accumulent nécessairement avec le temps. L’organisme doit alors dépenser une énergie de plus en plus importante pour réparer ces erreurs. Le processus de renouvellement finit par produire des copies trop défectueuses pour fonctionner correctement ; la mort suit.

Les preuves empiriques semblent le confirmer. On sait depuis longtemps que les cellules humaines en culture semblent capables de se répliquer au maximum 40 à 60 fois (appelée limite de Hayflick ) avant de s'arrêter et de devenir sénescentes. Et des observations récentes sur la longévité humaine suggèrent qu'il pourrait y avoir une raison fondamentale pour laquelle les humains ne peuvent pas survivre bien au-delà de 100 ans .

Il y a un corollaire à ce besoin apparent de systèmes prédictifs, organisés et économes en énergie qui apparaissent dans un environnement fluctuant hors d’équilibre. Nous sommes nous-mêmes système de ce genre, comme le sont tous nos ancêtres jusqu’à la première cellule primitive. Et la thermodynamique hors équilibre semble nous dire que c’est exactement ce que fait la matière dans de telles circonstances. En d’autres termes, l’apparition de la vie sur une planète comme la Terre primitive, imprégnée de sources d’énergie telles que la lumière du soleil et l’activité volcanique qui maintiennent les choses hors d’équilibre, ressemble moins à un événement extrêmement improbable, comme de nombreux scientifiques l’ont supposé, mais pratiquement inévitable. En 2006, Eric Smith et feu Harold Morowitz de l'Institut de Santa Fe ont soutenu que la thermodynamique des systèmes hors équilibre rend l'émergence de systèmes organisés et complexes beaucoup plus probable sur une Terre prébiotique loin de l'équilibre qu'elle ne le serait si les ingrédients chimiques bruts étaient juste assis dans un " petit étang chaud " (comme le disait Charles Darwin) en mijotant doucement.

Au cours de la décennie qui a suivi la première apparition de cet argument, les chercheurs ont ajouté des détails et des perspectives à l’analyse. Les qualités qu’Ernst Mayr considérait comme essentielles à la biologie – le sens et l’intention – pourraient émerger comme une conséquence naturelle des statistiques et de la thermodynamique. Et ces propriétés générales peuvent à leur tour conduire naturellement à quelque chose comme la vie.

Dans le même temps, les astronomes nous ont montré combien de mondes existent – ​​selon certaines estimations, ils se chiffrent en milliards – en orbite autour d’autres étoiles de notre galaxie. Beaucoup sont loin de l’équilibre, et au moins quelques-uns ressemblent à la Terre. Et les mêmes règles s’appliquent sûrement là aussi. 



 

Auteur: Internet

Info: https://www.quantamagazine.org/how-life-and-death-spring-from-disorder-20170126/ Philip Ball, 26 janv 2017 (Trad Mg) *Un cristal apériodique est comme un papier peint dont le motif se répète à grande échelle, mais avec des irrégularités subtiles. Il n'y a pas de motif exact qui se répète à l'infini, mais il y a tout de même un ordre caché dans sa structure.  Comme le Penrose tiling: un pavage avec des formes de pentagones et de losanges,  qui vient des artisans du Moyen-Orient.  Pavage qui ne peut  se répéter à l'infini de manière classique, mais possède un ordre à grande échelle. On peut le diviser en grandes "tuiles" qui se répètent, mais les motifs à l'intérieur de ces tuiles ne s'alignent pas parfaitement. C'est un exemple de cristal apériodique appelé "quasi-cristal". En bref c'est un ordre à grande échelle, mais sans motif répétitif exact à l'infini. (Voir aussi le lien avec les dialogues avec l'ange "aller vers le nouveau")

[ au coeur de FLP ] [ bayésianisme ] [ mémoire tétravalente ] [ épigénétique ] [ filtrage mémoriel ] [ constante ouverture ] [ citation s'appliquant à ce logiciel ] [ expérience accumulée ] [ prospective ouverte ] [ curiosité moteur ] [ scalabilité ] [ entendement ] [ théorie du tout ] [ astrobiologie ] [ orthogenèse ] [ biophysique ] [ philosophie ] [ méta-moteur ] [ principe intégré ] [ dessein ] [ résolution ] [ visée ] [ détermination ]

 

Commentaires: 0

Ajouté à la BD par miguel